OpenSolaris/Illumos (OpenIndiana, etc.) 5
[Oracle 下での OpenSolaris に関する新方針]
・ ON consolidation の Open Development は中止、Open Source は継続。
・ ON の Open Development はバイナリ互換を保ちつつ Illumos が担う。
・ ON 以外の consolidation は Open Development / Open Source 共に継続。
・ 従来の OpenSolaris distro == Indiana は
・ Oracle からは Solaris 11 (Express) として出る。
・ コミュニティベースで OpenIndiana が出る。
[Open Development]
・ 今までもほとんどの開発が Sun の技術者によって行われてきたため、
これを終わらせても実質的な影響はあまりない。
・ 製品リリース前に新技術について手の内を明かしてしまうという問題点もあった。
[Open Source]
・ 派生 distro や他 OS へのポートなどでソースを利用しいているところはあるため、
これを止めることは影響が大きい。
・ 製品リリース後であれば、たとえソースを非公開にしても
アイデアをまねすることまでは止められない、
逆にソースを公開してもライセンス上の制約や技術的問題などから
そういうことがさほど容易になるということではない。
[参考情報]
・ リークされた Oracle の内部文書
http://mail.opensolaris.org/pipermail/opensolaris-discuss/2010-August/059310.html ・ 2010年2月当時まだ Oracle にいた Garrett D'Amore 氏のブログ記事
http://gdamore.blogspot.com/2010/02/open-development.html
死んだ子の歳を数える
998 :名無しさん@お腹いっぱい。 :sage :2010/10/02(土) 15:52:51
OpenSolarisは既に無くなったのにOpenSolarisの名前にいまだにこだわっているようで、あのスレはちょっと…
単に昔の話題もオッケーって意味だろ?
>>6 前スレ
>>981にありますよ?
>>7 度々言われていることなんだけど、そういう意見(その
>>998みたいなのね)は
「distro としての OpenSolaris」と「コミュニティやプロジェクトの集合体としての OpenSolaris」を
混同してるからこそ出てくる意見なんだよな。
前者が終わったのは疑いない。しかし後者については継続してる部分も多い。
ついでなので
>>前993
Illumos や OpenIndiana など、Oracle から独立した動きが出てきているのだし、
Oracle Solaris とは別のスレとして存在する意義はむしろ従前より高い。
>>前999
事実関係を正確に把握してない人がいる(
>>8のように混同してる人など)
のだから、その辺を整理してテンプレ化するのはむしろ好ましい。
それを「未練」とか「痛々しい 」というなら、テンプレのどこが
どのようにおかしいか具体的に指摘してくれ。
linuxカーネルに対して、さまざまなディストリが存在しても独立した動き
とは言われないのに、OpenSolarisについてはOpenIndianaがでるとこう言わ
れるのは何故だろう?
opensolarisはoracle社から無料solarisが欲しいクレクレ君の集まりという
ことか?
>>10 今までの OpenSolaris distro は、いわば
「Linus が "Linux" という名前の distro を出していた」
ような状態だったから。
そしてその OpenSolaris distro は、
他 distro と比べて存在感がかなり大きかった。
そもそもx86のsolaris使ってる母集団が小さいからねえ。
linuxの1ディス以下の人数じゃないかと。
OpenIndianaを語りたいならそのみでスレを立てればいいのに終わったディストロを引きずって
総合を標榜するからグダグダするのだ。
と思ったが、
>>12そうだな。過疎スレ乱立はイクナイね。
そもそも前スレ自体、(OpenSolaris distro の話題が多かったものの)
OpenSolaris distro のみのスレではなく、派生 distro や関連プロジェクト等を含む
OpenSolaris の総合スレだったはず(少なくともテンプレではそのように記述されていた)。
そうね。
>Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします
隔離されてたの忘れてた。
[illumos-Developer] webrev: POSIX style localedef & multibyte encoding support
http://lists.illumos.org/pipermail/developer/2010-October/000611.html >Once I integrate this change, it will be a fairly trivial matter to add
>support for pretty much any locale you like. :-) Any of about 372 UTF-8
>locales are easy. Any 8859 or KOI8 locale is easy. Other encodings are
>easy *if* I can get a character map for them. GB18030 is probably the
>most painful of those.)
character map があれば ja_JP.* もサポートできるようになるのかな。
Kondaraの最期を思い出す
H/W-RAIDカード上に作成したArrayをzpoolに割り当てています。
HDDを1台追加して、OnlineでArrayの容量拡張を行った場合、poolに対して何
か処理を行う必要がありますか?
それとも、サーバを再起動させるだけで、起動時にpoolサイズが勝手に拡張され
るんでしょうか?
なにそのどこかで見たようなネタ
>>23 see zpool(1M)
set autoexpand=on
重いコンダラ
とりあえず64 bitで日本語環境のiso頼む
英語環境のまま使えよ。
日本語環境なんてウィンドウズのほうが充実してる。仮想で動かしとけ。
oi_147 は急いで出したために G11N も省いてたからね。
oi_148 はもうちょっと地固めして G11N も含めて出すと思う。
OpenSolarisをThinkPad X41 Tabletにぶち込んで、ペンタブを使おうとしたんだが
いろいろググって、/boot/solaris/devicedb/masterにWACF004を追加したところから先がわからん
内蔵ペンタブはWacomので、シリアルポート接続(irq 5, port 0x0200)
illumosがイルミナティからとってるって本当?
http://illumos.org/projects/site/wiki/FAQ >Q. And the name illumos?
>
>A. We started off with the codename FreeON, and later realized it is used
> by an existing project. We finally setted on illumos, after many hours
> of suggestions and counter-suggestions. illumos is derived from
> Illuminate.. a word that ties in with Sun and light. It's the closest
> to ON we could get!
>>36 感謝。
apacheは "a patch"が由来みたいに、
illumosは”イルミナティ”由来と言いふらすとこだった。
>>39 その理由は後付だな。Apache Foundation が大きくなったからそういう表向きの理由が
必要とされるんだろう
Apache の成り立ちを知っていれば、NCSA httpd に対する A Patchy server だということが
解るだろう
linuxもminixのpatchだったし、
386bsdも4.3bsdのpatchだった気が。
> 386bsdも4.3bsdのpatchだった気が。
元々無い部分を書いたはずなので気のせいじゃね?
いやいやパッチもたくさんあった。
4BSDへのパッチを結構まとめたから。
52 :
名無しさん@お腹いっぱい。:2010/11/08(月) 22:48:40
Indianaインスト記念カキコ。
Foxは英語にしないとダメなのね。
英語圏と非英語圏の意識格差がよくわかる反応だなあ。
55 :
名無しさん@お腹いっぱい。:2010/11/14(日) 16:44:44
ちなみにフランス語もFirefoxダメだったから、他の言語全部ダメかもよ。
>>52 > Foxは英語にしないとダメなのね。
何言っているのかさっぱり分からなかったがロケールの事ね…
WinVista上のVirtualBoxにSolaris11ExpressLiveCDから起動してインスコしてみた
進行状況バーが99%のところで止まったままいつまで経っても変化なし
仮想マシン上のシステムモニタもCPU使用率は底這い
痺れを切らして強引に再起動かけるとログインできねぇ
後でGT110b実機にインスコしてみよう・・・
59 :
名無しさん@お腹いっぱい。:2010/11/21(日) 00:24:28
VMwareなら問題起きなかった。
11express 慣れると中々良いじゃない。色々とサポートされるようになったし。
それにしても未だにRadeonのドライバってvgatextなんだねぇ。
ソースも公開されているのでこれに至ってはマジで何とかなってほしいぜ(無理だろうけれど
後、nwam周りがoiと同じようになってる。以前の方が安定していたのになぁ。
ハードディスクを使ってない時にスピンダウンするコマンドありますか?
hdparm的な
65 :
名無しさん@お腹いっぱい。:2010/11/30(火) 23:37:08
2TBのHDDも安くなってきたんで、自宅PCのファイル保管庫として
ZFS+SambaのPCを一台立てようと思っています。
選択肢として、FreeBSD系、OpenSolaris(終了しちゃった?)系、Solaris11 Expressが
あるみたいですけど、
この内、どれで立てるのが簡単で良いでしょうか?
コマンドラインを叩くのは苦にならないので、GUIは特に必須ではありません。
ZFSを使い始めるまでの準備が少ないdistroが良いと思っていますが、
それもこれも勉強ですので、無ければ頑張ろうと思います。
もし、LiveCDとかで試しに立てられるものがあるなら、勉強がてらですので、
それでも構いません。
ちなみにRAIDカードは使わない前提です。
ZFSはメモリを食うそうですが、とりあえず2GBあれば足りますか?
よろしくお願いします。
FreeNAS
FreeBSD系
FreeBSD に慣れてるならいいかも。そうでなければ、
ZFS 利用が主目的なら Solaris 系推奨。
OpenSolaris(終了しちゃった?)系
これは OpenIndiana が実質的後継。ただ、まだ安定版は出ていない。
Solaris11 Express
ライセンス条件が厳しくなったため商用利用なら有償サポート加入が必要。
「自宅PCのファイル保管庫」という利用目的なら無償利用可能。
ただし、セキュリティ・バグパッチ入手はサポート加入が前提なので、
これらが必要なら OpenIndiana 推奨。
>>65 とりあえず導入してファイル鯖にするだけでいいならFreeBSD系のPC-BSDでいいと思う。
ただし、メモリは4GB以上を推奨。いまどき安いし。
本当は安定しているSolaris系オヌヌメしたい処なんだけど、OpenIndianaがまだまだ正式
リリースされない状態ではちょっとね。
NexentaStor Community Edition
容量制限18TB。GUI有。
NexentaCore Platform
GUI無(apt-get install xorgでインスコ可能。公式のwiki参照)。
手軽なのはStorCEだと思う。
当面 Solaris 11 Express 使って、OpenIndiana 安定版が出たら
そちらに切り替えるのも一案。Sol11(Ex) と OI はパッケージ互換なので、
両者の間を行き来するのはさほど難しくないはず。
>70
パッケージの互換性よりzpoolとzfsのバージョン互換の方が問題になりそう。
OpenIndianaがリリースまでにバージョンをExpress迄あげてくれるといいんだけど。
早くZFS枯れないかな
>>65 とりあえずZFSがどんなものか体験してみたいという要望ならFreeNASをUSBからブートすればいいと思う
マザーボードのSATAコネクタをフル活用できるし。
もっと踏み込んだことをしたくなったら、OIとかFreeBSDに挑戦してみては?
メモリに関しては自分はIntel D945GCLF メモリ2GBでFreeBSD 8でsambaで使っていた分には
一応使えてました。
ネットワークのほうが律速になってくるのでは?
8GB必要、とか言ってる人たちはローカルでのパフォーマンスを要求してるんじゃないのかなあ。
FreeBSDでごちゃごちゃするのは面倒だから
PC-BSDでFreeBSDな
OpenIndianaでZFS使っているけど、取りあえずうちの環境では、2008や2009より
調子いいです。
77 :
74:2010/12/02(木) 14:02:01
1.PC−BSDをダウンロード
2.完全にZFSにする
3.FreeBSDを選択インストール
EONをインストール、設定をしているのですが、設定後にリブートをかけると
ネットワーク設定やユーザ設定等が初期化されてしまいます。
初期化されないようにする方法を教えてください。
Express5800/100Ge
CPU Celelon430
Memory 2GBx4
手順
eon-0.600-130-64-cifs.iso をダウンロード後、ハッシュ確認し、CD-Rに焼きCDからブート。
ブート後、ログインし/usr/bin/install.sh を実行して HDD にインストール。
その後の設定は起動ディスクに関連があると思われる設定は、リブート後に全て元に戻ります。
起動ディスク以外のディスクへに対してpoolを作ったりファイルを書き込んだりした場合は
pool自体は残ります。zpool -f importする必要がありますが。
79 :
78:2010/12/05(日) 15:16:17
自己解決しました。
インストール&設定後に、updimg.sh を実行する必要があったようです。
# /usr/bin/updimg.sh /mnt/eon0/boot/x86.eon
これでリブート後も設定が保持できるようになりました。
が、他にもハマってる部分があるので引き続きアドバイスお願いします。
80 :
78:2010/12/05(日) 15:21:53
EONをUSBメモリにインストールすると、
>>79のupdimg.shの引数
/mnt/eon0/boot/x86.eon が見当たりません。
念のため find / -name x86.eon 等で探してみましたが見つからず。
それどころか、find / -name grub.conf もヒットしません。
EON独自の問題でないような気もしますが、ご教示下さい。
OIを弄って楽しんでいるところなんだけどiSCSIのCOMSTARで疑問が。
これってもしかしてターゲットとポータルをネットワークに合わせて構築してから
ターゲットグループとホストグループを設定してビューで公開先を指定ってことで良いのかな?
検索で引っかかった情報だとLU作ってからターゲットという流ればっかり何だけど
グループとビューの使い方をいろいろ試していたら逆かな?という気が。
ibmにしてみれば自社のリナックス鯖に乗り換えてくれるほうがメリット有るからなあ。
aixから乗り換える情報も対抗して(ry
やっとOI 148が来た
85 :
oi_148 - Release Notes:2010/12/18(土) 12:57:30
oi_148 has seen a lot of improvements in documentation and processes to
enable more people to contribute releasing more development knowledge
to the community instead of being locked in a small number of people's
heads.? If you want to help with OpenIndiana please join us on the
mailing lists or in IRC.
Outstanding issues to be aware of
* Globalisation across the OS is still broken and we hope to fix this
when we integrate illumos as the OS foundation in the next
development release.
* Brasero is broken due to an updated cdrecord (#241)
Fixes and improvements since oi_147
* Bump consolidation versions to 148 where available with bug and
security fix backports
* Backports from illumos (#100, #143, #171, #176, #185, #248, #303,
#306, #310, #334, #335, #344)
* Bump nvidia driver to 256.44
* Fixed l10n in Firefox and Thunderbird (#200)
* Added PostgreSQL packages back in (#222)
* Fixed man pages (#261)
* User administration fixes (#263, #288, #293)
* Branding fixes and updates (#213, #218, #233, #234, #238, #246,
* Java SSL crypto problems (#255)
* liblcl needs to be compatible with system strcasestr(3) (#337)
* SMF Service reports zfssnap-roleadd in maintenance state (#235)
* Evolution progress (#237, #305, still outstanding upstream #489)
oi_147なvmdk起動してimage-updateしてみたけど、
利用可能なアップデートはないって言われる。
searchすると@0.5.11,5.11-0.148なものが見つかるのに……。
148 ってことは11exporessの151には追いつかないってことなのかな
今頃 148 というのは、まだ OI が創生期でいろいろ遅れまくってたのが原因。
この辺は時間が解決してそのうち追い付くと思う。ただ、
ON 以外 (SFW, X, JDS, etc.) はオープンな開発が続いてるので
OI と Oracle 版 Solaris とで同期してるけど、ON は Oracle が
ソース公開するまでは Illumos による独自更新部分を除いて
基本的にそのままの状態になる。なお、次のリリースからは
ON が Illumos に入れ替わる模様。
誰か教えて欲しい。
ZFSのルートプール上にあるルートファイルシステムをもう一つ作って起動時にそっちからブートしたい場合は
クローンをルートプール上に作ってGRUBのメニュー項目を複製修正して起動時にそっちを選べば大丈夫?
すでに試したんだけどzfs listでクローン側のマウントポイントが/ではなくlegacyとか言われて大丈夫なのか不安でしょうがない。
beadm(1M) の man 見ると何かわかるかも知れない。
>>89 今のBEを複製するだけなら↓でいけるんじゃない?
beadm create beName
beadm activate beName
おお、ありがとう
man beadmしても無いよって言われたからググってsunのドキュメント読んでた
手動でやってた事が全部起動環境管理用のツールで出来ていたって泣いて良い?
それにしてもZFS半端無い、ストレージの扱いがとんでもなく柔軟すぎる
Solarisってデバイスを酷使してくれるな
P4SCi+CeleronD325+MEM2GB(ECC)+SAS3080X+RAIDZ3(500GBx6)+ZIL(160GB)+OI148
これでiSCSI鯖の負荷テストしたらマザーボードの全チップが熱もってシステムが部分フリーズしてた
チップにはヒートシンクを追加してCPUはグリスの塗り替えで解決したけど、このマシン何年持つかなw
94 :
名無しさん@お腹いっぱい。:2010/12/26(日) 01:25:28
solarisって、もしかしてsambaいらない?
opensolaris系ならcifsが実装されてなかったっけ
nmbdとwinsサーバを使わない、CIFSサーバだけなら。
svc:/network/smb/server:default (Solaris 独自の CIFS サーバ)
svc:/network/samba:default (Samba)
どちらも入ってるからお好きな方を。
>>93 それはソラリス様が悪いんじゃない
CPU メモリ チプセトが非力過ぎるんだろ
チプセトに負荷かかりすぎてるんじゃねの
おい148出たんだな ようやく茨の道を歩かずに済むか
P4SCiっていつのM/Bかと思ったら、2004年のモノじゃねぇかw
Socket478CPUとDDR400でRAIDZ3か。パリティの計算すらままならんだろうに。
akeome
CeleronDでRAID BOXなんて…w
L2少ないIntel CPUなんてゴミなんだけど良く頑張ってるなw
まぁ腐っても●だから今まで何年使ってたかにもよるけど1年ちょっとくらいは持つんじゃね
>>98-100 あけおめ、ことよろ。
>>93のテスターです
このマザーは2005年の中頃あたりからレプリケーションとバックアップ用のサーバーとして無停止で走ってました。
おっしゃるとおりパリティ計算にCPUをガッツリ食われててベンチを走らせると90%近い負荷と4.5前後というロードアベレージ。
しかしランダムベンチの場合は負荷40~60%ほどですんでいるので実運用での負荷には意外に耐えてくれそうです。
Canterwood ESって875P相当か
サウスはHance Rapidsってか
CSA含めNIC2系統64bit PCIもSATA1.5GbpsにATI RageXLも付いてるし
PCIe直前のおしゃれなマザーだな
>>101 これに最近お安くなったSSDを足してL2ARCにするのはどう?
>>103 やってみましたが殆ど焼け石に水というかパリティとチェックサムに喰われすぎてL2ARCとZILに割り当てても気休めくらいですね
HDDが5年ものだからランダム性能には向上の余地があるかもしれませんが総帯域の上限はどうにもならなさそうです
このさいP4EEでも入手した方が良いのかも
>>104 ほんとにやったんだw
マジで乙
Pen4EEなんか履かせたら速攻で板が劣化して寿命が来そうだが…w
CPUのサポートリストにはあるみたいだから
お安く調達できて実用になるならこの際やってみるのもいいかもね
EEじゃなくてよければソケ478のバルク新品はpc-ideaにまだ落ちてるけど
テストに使ったディスクのローカルでのベンチ結果を上げておきます
マシンは
>>93 x2はミラーではなくストライプ
$ pfexec bonnie++ -d /tank01/ -n 0 -b -u root
Version 1.03c ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine ---------------------- Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
ST3160827AS(x2) ------------- 4G 32814 64 65719 29 40718 23 32637 89 113130 20 272.9 2
WD5000AAKS-00UU3A0(x1) - 4G 31580 62 53450 24 33578 19 33076 91 124647 21 132.0 1
WD5000AAKS-00UU3A0(x2) - 4G 36862 73 80870 37 45927 27 32682 90 211222 42 232.8 2
ST3500630NS(x4)(raidz2) ----- 4G 32694 67 51563 25 29860 22 29182 81 141621 39 171.5 2
>>106 乙
Seagateは評判通りRAID向きだねー
○ Seagateは評判通りRAID向きじゃないねー
DTM用マシンを組んであげたときはHGSTでRAID組みました
3wareのカード、今でもあるはずだが…
109 :
106:2011/01/14(金) 16:38:11
ヒートシンク流用でP4-3.2へ換装。メモリを3GBへ増量ただしnonECC。
同負荷で10MB/sほどbonnie++ベンチの結果が向上。
ST3500630NS(x4)(raidz2)を使ってクライアント側でCrystalDiskMark 3.0で取得。
デフォルト設定の20GBボリュームをNTFS(16KB)でフォーマット。
Sequential Read : 34.603 MB/s
Sequential Write : 20.810 MB/s
Random Read 512KB : 18.428 MB/s
Random Write 512KB : 13.030 MB/s
Random Read 4KB (QD=1) : 0.422 MB/s [ 102.9 IOPS]
Random Write 4KB (QD=1) : 0.392 MB/s [ 95.7 IOPS]
Random Read 4KB (QD=32) : 0.954 MB/s [ 232.8 IOPS]
Random Write 4KB (QD=32) : 0.733 MB/s [ 178.9 IOPS]
Test : 1000 MB [K: 0.3% (0.1/20.0 GB)] (x5)
Date : 2011/01/14 16:32:27
OS : Windows XP Professional SP3 [5.1 Build 2600] (x86)
ブロックサイズを64KBにした10GBボリュームをNTFS(16KB)でフォーマット、ただし都合により測定二回のみ。
Sequential Read : 54.562 MB/s
Sequential Write : 23.274 MB/s
Random Read 512KB : 25.178 MB/s
Random Write 512KB : 17.324 MB/s
Random Read 4KB (QD=1) : 0.462 MB/s [ 112.9 IOPS]
Random Write 4KB (QD=1) : 0.388 MB/s [ 94.8 IOPS]
Random Read 4KB (QD=32) : 1.174 MB/s [ 286.7 IOPS]
Random Write 4KB (QD=32) : 0.859 MB/s [ 209.7 IOPS]
Test : 1000 MB [L: 20.1% (2.0/10.0 GB)] (x2)
Date : 2011/01/14 16:32:40
OS : Windows XP Professional SP3 [5.1 Build 2600] (x86)
往年のマシンにしては相当頑張ってるな…
あとは板の寿命がどんだけ持つかだけど
ちなみに交換したCPUはPrescottですか?
111 :
106:2011/01/14(金) 20:51:03
Northwoodです。
実はオンボードNICに問題があるようです。
iSCSIで高負荷がかかると唐突に無反応になるのでストレステストをかけたら負荷期間に関係なくスタックごと無反応になりました。
PCI-XのMT dualは問題ないようです。
ドライバやスタックの設定でなんとかなるなら何とかしたいものです。
増設NICならBIOS更新で直った経験あるけど
オンボだしBIOSはやってるだろうからなぁ…
非純正H/W環境でのSolarisはいろいろ辛いよね
そこに足しにいくとしたらPro/1000GTの一択かぁ
CSAのバグフィックスは今更中の人もやってくんないだろうな
Sandy Bridgeの動作報告amd-?
自分でやれ
485MとSandyちゃん載ったノートほしいなぁ...
気が進まないけどNASサーバに一台だけWindowsServerの仮想マシンを載せることになってしまって
VirtualBoxに付いて調べているんだけどVBoxManageの--cpuexecutioncapってどの程度信用して良いのかな?
>>109の環境で
>>93のディスク構成。
VirtualBox4+EXTを使って16GBの仮想LSI SCSIのディスクにWS2003(x86)をインストール。
SATAでドライバを突っ込んで構成するとインストールの最中にブルースクリーンが出たのでSCSIディスクで構成。
目的は
>>117の確認とheadlessで別マシンから操作するための実験用。
予想以上に性能が良くて、おどろきもものきさんしょのき…
-----------------------------------------------------------------------
CrystalDiskMark 3.0 (C) 2007-2010 hiyohiyo
Crystal Dew World :
http://crystalmark.info/ -----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 60.989 MB/s
Sequential Write : 40.307 MB/s
Random Read 512KB : 25.852 MB/s
Random Write 512KB : 26.371 MB/s
Random Read 4KB (QD=1) : 0.415 MB/s [ 101.2 IOPS]
Random Write 4KB (QD=1) : 0.567 MB/s [ 138.3 IOPS]
Random Read 4KB (QD=32) : 0.690 MB/s [ 168.5 IOPS]
Random Write 4KB (QD=32) : 0.520 MB/s [ 127.1 IOPS]
Test : 1000 MB [C: 19.4% (3.0/15.6 GB)] (x5)
Date : 2011/01/31 13:09:21
OS : Windows Server 2003 R2 SP1 [5.2 Build 3790] (x86)
XenClientでSandy BridgeのGPUがパススルーで使えるようになったら夢がひろがりんぐ
じゃあOracle VM 導入してみるか
OpenIndianaとかIllumosになっても、ATOK for Solarisは使えるのかな?
Jaris動きないね。
FAQとか放置。
>>121 >>64 のパッケージ入れれば使えるんじゃない?
ライセンス条件等については自己責任で
infinibandがサポートされてるのならinfiniband over etherとcrossbowの仮想スイッチで
適当な自作PCがinfinibandスイッチになったりしないかな。
ebayとかで保守流れ品のHCAが安いのを見るとそんな妄想がムラムラ湧いてくるんだが。
複数物理マシンで富豪クラスタ構築するんですか?
Xenがスイッチ取り込もうとしてる流れに逆らうなんて産卵期の鮭みたいなお方だ
126 :
sage:2011/02/14(月) 14:28:15
そろそろnevada から OpenSolaris に移ろうかと思っているんだが、
StoreEdge DAT72のドライバってないかなぁ。
今やDATを一生使いつづけるつもりでもないけど、とりあえず現在は
まだnevadaでDATを毎日まわしてるからそれでリストアできると
いいんだけど。
nevadaじゃない環境で消えたのはライセンスの関係なのかな?
OpenSolarisでdedupをonにしてストレージサーバーを作ろうと思うのだけど、
dedupがブロック単位と聞いて、zvolに対しても効果があるのかな?
って思ったのですが実際の所どうなんでしょうか?
128 :
124:2011/02/15(火) 00:33:16
>>125 クラスタ構築とかそんな大それた目的では無いんだ。知識もスキルも全然足りないただの自作PCオタです。
最近は6コアCPUも大容量メモリもHDDも安くなってきてるからVMware or XenServer仮想鯖と
ZFSストレージ鯖を広帯域で接続できたらなぁって。
10GbpsNICだとカード一枚で5-6万、スイッチも数十万するのを見ると、ebayで20GbpsのinfinibandHCAが
一枚1万切ってるのが俺を誘惑してるように思えてくるんですよ。
MacのようにマシンAでインストールした起動ディスクをマシンBに繋いでそのまま起動できますか?
>>130 同じ構成とは?
例えば最新のXeonのMacProの起動ディスクをインテル初号機のCoreDuoのMacBookに付けても起動できますが・・
Macの話はいいです。
やれやれ、全くこれだから
自分の無知を棚に上げて( ̄◇ ̄;)
136 :
129:2011/02/15(火) 17:02:50
よくよく考えたらUSBメモリーの起動ボリューム作れるんだからできそうですね。
お騒がせしました〜
137 :
129:2011/02/15(火) 23:17:29
実際にやってみたところ全く問題なくでけたよ。
MacBookProにSSD入れて、そこにOIをインスコ。
そのSSDをATOM330+IONのベアボーンに繋げて電源オンで普通にブート。
HDMIも問題なし。
音だけチェックしてないけど。
OI優秀ですね。
GENERICカーネルなんてインストールの時だけつかうもの。。。
そう考えていた時期が俺にもありました
139 :
129:2011/02/16(水) 19:19:05
>>138 あの頃はまだ東京タワーも無かったのぉ・・( ´Д`)y━・~~
OIでraidzを組んだのですが、hddが壊れた時にメールでお知らせしてくれる機能はありますか?
コンテナで仮想化してつくったサーバーにユーザー作成しようとしたら、ホームディレクトリが出来ない。
ネットにあるように一旦/homeをアンマウントするしか方法ないんですか?
でも、なんで非大域ゾーンには、/export/homeがないの?
マカってホント情報弱者だな。
143 :
名無しさん@お腹いっぱい。:2011/02/18(金) 02:29:43
なんもわかって無いのにラップトップにopenindiana入れて遊んでるものです。
何かする訳でもなく、無料だから使ってます。
あと、なんとなくかっこいいからw
こんな素人が適当にインストールして使えちゃうのはすごいですね〜
ま、ウェブブラウズとメール確認にしか使ってませんけどね。
コミュニティーの方々に感謝。
>>143 ubuntuとかはどうなの?そういう「何となく」なら幸せになれる。
まあ、OpenIndianaの完成度も高いけどさ。
ubntuとかfedoraもためしてみたのですが
http://wiki.openindiana.org/oi/Press+Release(JP)
>最後に、Linuxユーザがなるべく簡単に移行することができるように、
>我々はOpenSolarisオペレーティングシステムの使いやすさも強化していきます。
>重要な例としては、多くのLinuxと同じように、ソフトウエアのアップデートを、
>無料かつオープンな方法で実現するつもりです。
というのも OI の目標の一つだから、「なんとなく」というユーザも
取り込めるならそれは願ったりでしょう。
間違えて途中で投稿しちゃったw
ubuntuとかfedoraもためしてみたのですが、正直その違いが
わかるほどの知識もない素人なのでどれ使っても同じでw
で、unixと言うかsolarisというものに憧れを持っている
と言うか何というか、使えりゃなんでもいいやというかw
とくに意味ないんですよ。
ならubuntuのほうがいいと思うよ
マジで
そうですか。
でも、何使ってもデスクトップgnomeで見た目変わらないですし
アップデートとかむしろパッケージマネージャ使いやすいとか
思っちゃってましたw
確かにlinuxの方が色々対応してるっぽいですが、64bit環境で
使おうとするとプラグインの対応とかどっちも大して差が無いというか、、、
う〜ん。なんか、意地でもoiで!みたいな感じになってきましたw
ところで、ubuntuはどこらへんが利点だったりするのでしょう?
板違い。
>>149 単純に検索して手に入る情報量とそれが日本語であるかが違うかも。
OIが初Solarisだった自分がNICを固定IPにする方法を探し回ったときに実感した。
まあ本家のドキュメントを先に読むべきダロって突っ込みは無しでorz
ググるなカス
>>149 Ubuntuの利点は何といっても情報量の多さ。
ユーザーが多い分、不具合にも対処しやすい。
あと、Google Chrome等、有名どころでもLinux対応だがSolaris非対応の物は多い。
それに、Windowsじゃないなら64bitをあえて使う必要ないよ。
64bitWindows使ってても32bitLinux入れられるし、32bitでもPAEカーネルならメモリちゃんと認識するし。
32bitの方がFlashとか楽でしょ?
初心者はUbuntuの32bit版をオススメする。
ある程度LinuxというかUNIX系に慣れてきたらBSDなりSolarisなりに手を出す、と。
とはいえ、ここでわざわざ他 OS を勧めるのは板違いスレ違いじゃないかというのはさておき、
確かに情報量の多さは初心者にとって心強いのは間違いないだろうけど、
わからないことについてひたすら教えて君するのでなく
試行錯誤しながら自力で解決して知識やノウハウを蓄積していくのも
楽しみの一つだろうし、悪いことではないと思う。
あと、64bit 環境下では 64bit / 32bit どちらのアプリケーションも
自在に使えるというのも Solaris 系の特徴だから、自分の使いたい
アプリケーションが 64bit 非対応だから 32bit カーネルで起動する
なんてことをする必要もない。
155 :
名無しさん@お腹いっぱい。:2011/02/18(金) 15:10:56
Ubuntu と Solaris 、Solarisのがお洒落。
LinuxとUnix。Unixのがカッコイイ。
っていうのは冗談ですけどw
Flashはなんかアドビのページに
プラグイン置いてあったので、
いわれるままにコピッたら問題なく使えてますね。
ただ、DVDの再生が出来なくて、調べても
Totemとか言うアプリのプラグインsolaris向けの
やつ発見できなかったので、バーチャルボックスいれて
Xpインストールしてわざわざそっちで観てるという
わけのわからないことしてます。
Chromeもxpで使ってますw
メインで使ってるwin7のpcが別にあるので
ここまでするひつようもないのですけどね。。。
すみません。なんか、ひとりだけレベルの低い
書き込みでw
>>155 普通のPC用として本当に何となく使えるんだな。
>>155 zfsでの管理に慣れてしまうと他のファイルシステムを使う気が全然起きなくなってきて
職場でもzfsの提案をするようになってしまって周囲から白い目で見られてしまうように
なるから止めておくんだ。
あとうっかりLinkAggregation可能なL2(スマート以上)スイッチを手に入れてしまうと
Crossbowの魔力によって無駄に冗長高可用なネットワークを構築し始めてしまうから
HP ProCurve 1810G-8とかの価格を調べるのは絶対に止めるんだ。
>>157 おい勧誘するなよ…
俺にみたいに手遅れになるだろうが
HPの鯖とかネットワーク機器はいいよね
どっかみたいにカネ払って契約して登録しないとFirmwareが落とせないとかないし
なにげにAMD鯖も売ってるし
ちょっち前に3Comも買収したんだっけ?
HP最高ですおすし
自宅鯖にOpenIndiana使ってる。
RAIDのZFSにでsambaしてる。
俺のLet's NoteとEeePCはUbuntu。
愛用スマホはiPhone 4とIDEOS。
家族はWindowsのノートPC使ってる。
嫁のクックパッド専用機のiPad。
息子のムフフな履歴の残るGalaxy Tab。
娘の合格祝いに買ったばかりのIS03。
それらがみんなOpenIndianaに繋がってて、バックアップやら思い出の写真やらを共有してる。
家庭内蔵人(くろうど)
もちろん串たててログ監視してるんですよね?
悪いお父さんだなww
クックパッド専用機ワロタwww
ウチも娘のゲーム機だから人のこと言えんが。スレチか。
家庭内サーバーにするならZFSは安心感があるよね。
ウチも使ってるよ。
>>160 iPhone Galaxsy IS03ってキャリアバラバラじゃないか。
家族で統一した方が良いのでは?w
zfs destory しても zpool import -D で復活するのには助けられたよ・・・。
オペミスしたときは、頭真っ白になったわ・・・。
169 :
名無しさん@お腹いっぱい。:2011/02/23(水) 00:45:32.65
>>140 zpool status -xの出力が通常でないときにメール飛ばすようにして、cronで定期実行すればOK
>>167 stmfadmで作ったLUもdestroyしてもimportできるよ。iSCSIやるときに使う
>>169 >zpool status -xの出力が通常でないときにメール飛ばすようにして、cronで定期実行すればOK
トンクス!
そこまでのスクリプティング技術ないけどググってやってみます!
171 :
名無しさん@お腹いっぱい。:2011/02/24(木) 18:30:28.17
初めて試してみたけど、solarisのboot時間って長いのか?かなり時間がかかるんだけど
初めてだけ長い可能性もある
種だの鍵だの作ってたりするし
時間がかかるのはソラリスは少子高齢化を防ぐため子作りに励んでいるからです。
BIOSの起動時間の方を何とかしてほしい
176 :
171:2011/02/24(木) 21:26:48.00
172~175
よく分からないけど、FreeBSDとかLinuxだと40秒ぐらいで立ち上がってたのが、2分ぐらいかかってさ。
初めだけではないよ。
まあそんなもんじゃね
>>176 何に時間がかかっているのかを調べてみるといいよ
そんなもんだとしか言えない
自分の使わないサービスは SMF で disable していけばいいんじゃね
結局gdmが後の方だから遅く感じるのはどうしようもないと思われ
スーパーハカーって気分に浸れて
>>176も大満足なベストアンサーは
コンソールログインして必要な時にstartx
OpenIndiana(148)で、気が付いたら
hoge@indiana:/var/adm$ sudo zpool status -v
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see:
http://www.sun.com/msg/ZFS-8000-8A scan: scrub repaired 190M in 1h7m with 1212 errors on Fri Feb 25 19:07:25 2011
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 0 0 1.18K
raidz1-0 DEGRADED 0 0 2.64K
c2t1d0 DEGRADED 0 0 1.07K too many errors
c2t2d0 DEGRADED 0 0 1.03K too many errors
c2t3d0 DEGRADED 0 0 899 too many errors
errors: Permanent errors have been detected in the following files:
/zpool/SOFTWARE/DOWNLOAD/.DS_Store
/zpool/SOFTWARE/DOWNLOAD/8.0-RELEASE-amd64-all/8.0-RELEASE-amd64-dvd1.iso
/zpool/SOFTWARE/DOWNLOAD/8.0-RELEASE-amd64-all/8.0-RELEASE-amd64-livefs.iso
/zpool/SOFTWARE/DOWNLOAD/8.0-RELEASE-amd64-all/8.0-RELEASE-amd64-memstick.img
と、3本同時にチェックサムエラーとなっていました。いったいどういう理由で3本同時に
こんなことが起きるのでしょうか?
現在復旧作業中ですが、なんだかダメな予感がします。
コントローラが腐ってるんじゃねーの?
184 :
名無しさん@お腹いっぱい。:2011/02/25(金) 22:04:03.64
3本同時ってのはディスクが原因ってよりその周辺だろうな
185 :
182:2011/02/25(金) 22:40:59.44
コントローラはICH10Rなのですが、OpenIndianaはESXiに乗っており、checksumエラーの
出ているディスクはどれもRDMでの使用です。
c2t1d0〜c2t3d0で使われているドライバは
hoge@indiana:/devices$ ls -l /dev/dsk/c2t[1-3]d0
lrwxrwxrwx 1 root root 47 2011-02-24 15:31 /dev/dsk/c2t1d0 -> ../../devices/pci@0,0/pci15ad,1976@10/sd@1,0:wd
lrwxrwxrwx 1 root root 47 2011-02-24 15:31 /dev/dsk/c2t2d0 -> ../../devices/pci@0,0/pci15ad,1976@10/sd@2,0:wd
lrwxrwxrwx 1 root root 47 2011-02-24 15:31 /dev/dsk/c2t3d0 -> ../../devices/pci@0,0/pci15ad,1976@10/sd@3,0:wd
hoge@indiana:/devices$ prtconf -D | grep pci15ad,1976
pci15ad,1976
pci15ad,1976
pci15ad,1976, instance #0 (driver name: mpt)
ahciじゃなくて、mptで正しいのかというのも気になります。
質問ですが、まだ、Opensolarisにextraパッケージを追加可能ですか?
ATOKの追加が目的ですが 初心者でなので やり方が解りません。
Solaris11 Expressならkey追加しなくてもATOKパッケージが選択できる
>>187 ありがとうございます。
11 Express チャレンジしてみます。
atom+ionだけどサスペンドするとハングするなぁ。
MP カーネルで acpi うまくいかないのはなおったんだっけ?
Thinkpad R61もサスペンドうまく動かない
OIでHDDにアクセスが無いときに回転停止させる設定って出来ますか?
ググッているのですが見つかりません・・・
193 :
192:2011/03/03(木) 00:11:10.00
みつけました。
power.confで設定するんですね。
お騒がせしました・・
RAIDZで組んだHDDはdevice-threshold設定してもHDD寝ないのでしょうか?
試しに5分に設定してみたけど寝る気配なし・・
OIでsys-unconfigを実行して再起動したところ、再設定に付いて何も聞かれずgnomeがunknown hostのまま起動してしまうのですが、どうやって再設定すれば良いのでしょうか?
ベイスロットの空きが無くて、ケースの片面を開けたまま
直接 sataのケーブルをつないで運用してました。
今まで問題なかったのだけど昨日の地震でむき出しのHDDの上に
大量に物が落ち、今、以下の状態です。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see:
http://www.sun.com/msg/ZFS-8000-8A scan: resilvered 239G in 13h46m with 26 errors on Sat Mar 12 22:12:54 2011
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 78
raidz1-0 DEGRADED 0 0 312
c4t1d0 DEGRADED 0 0 0 too many errors
c4t2d0 DEGRADED 0 0 0 too many errors
c4t3d0 DEGRADED 0 0 0 too many errors
replacing-3 DEGRADED 0 0 0
c4t4d0/old FAULTED 0 0 0 corrupted data
c4t4d0 ONLINE 0 0 0
errors: Permanent errors have been detected in the following files:
tank/vol01:<0x1>
c4t4d0は換装したんだけど、換装中に他までエラー発生。
ほぼあきらめているんですが、復旧可能でしょうか。
>>196 そんなの奇跡か魔法でもない限り無理じゃないかな
全てのHDDがやられたの?
完全にやられたのはc4t4d0 です。これは異音がして止まりました。直後の状態は
REMOVEDです。
で、c4t4d0を換装中に、c4t3d0にチェックサムエラー発生。3個だけだし、換装中なので
ドキドキしながら放置してたら、今の状態です。
内容は、ESXi のストレージプールで、今、ESXi側からバックアップ中。終わったら
scrub してみようと思ってます
199 :
198:2011/03/17(木) 01:09:06.15
>>198です。
なんとか復旧できました。あの後、今度は、c4t2d0 が勝手にREMOVEDになったりと
ボロボロでした(c4t4d0の処理が終わった後だったのが幸い)。
それぞれのvmでEXT3のリカバリがあったので、zfs, zpool的には、破壊された物もあったの
だろうけど、奇跡的に失われたデータはなかったです。
この状況でデータは何も失ってないのは、結構感動モンですね。
>199
おめでとう。良かったじゃないか^^
NetBSDの pkgsrcで行くんだな。Sunがなんか新しいのやってなかった?
あれって OpenSolarisの一部じゃないのか?
IPSとzfsの連携やめちゃうん?
Indianaちゃんのtopページが変なんだけど、そろそろoi149っていうか正式版が出るのかぇ?
204 :
名無しさん@お腹いっぱい。:2011/04/07(木) 13:37:51.99
openindiana oi-148をHDDにインストールして、xVMサーバを構築したのですが、
packagemanagerでkernalなどのCore Solarisを更新しようとすると、
「This is an Live Image. The install operation can't be performed.」
のエラーメッセージとともに拒否られます。更新マネージャでも同様です。
xVM関連パッケージのインストールはpackagemanagerで出来たので、
通信、プロクシ、発行元などの設定は問題ないと思うのですが。。。
HDDからブートしているのに、LiveCDブートと勘違いしているのでしょうか?
>>204 Live Imageって現在の実行環境って意味じゃない?
ルートプールにクローン作ってそっちを更新しろやって言われているのでは。
206 :
名無しさん@お腹いっぱい。:2011/04/07(木) 14:45:12.19
>>205 おお、なるほど。
しかし未だ消化し切れていないところがあります。
クローンを更新しただけでは、将来に展望が開けないので、
その後、zfs promotoでクローンとオリジナルを入れ替えるわけですね?
その場合、パッケージマネージャに対して、更新対象がオリジナルの
ファイルシステムでは無く、クローンされたファイルシステムの方で
有り、その名前が何であるか、どうやって教えたら良いのでしょうか?
それとも、クローンを作って、クローンからブートして、オリジナルを
パッケージマネージャで更新するのでしょうか?
#いっそ、LiveCDからブートして、HDDのシステムが更新できたらいいのに。
>>204-206 コアの更新は
$ pkg image-update
すれって話とはちやうのんか?
209 :
名無しさん@お腹いっぱい。:2011/04/07(木) 16:21:34.71
>>207 教えて戴いたURLの記事を読むうちに、どうもBEのマネジメントと
システムの更新が密接に絡んでいるようでしたので、
「OpenSolarisスタートアップバイブル」の「BEの管理」の節を
調べてみました。すると「OpenSolarisでは、pkg image-update
コマンドでシステムをアップデートするごとに、自動的にBEが
作成されていきます。」との記述が!
もしや、と思ってman pkg を見て、
pkg image-update --be-name openIndiana110407 --require-new-be
としたところ、あっさりと更新されたシステムが新しいBEとして作成
されました。クローン作成も自動でやってくれます。
なんだか肩すかし。
今時のLinuxばりに、簡単にシステム更新できるんですね。
だったらアップデートマネージャで対応してくれてたらいいのに。。。
他にもパッケージマネージャ、アップデートマネージャがシステムのプロクシ設定を
無視する、ネットワークの自動設定がウザイ、xVMのBEをしこしこ自作しないと
いけないなど、荒削りなところが残りますが、しびれるzfsが使えますし、
openIndianaいーですねぇ。
#採用決定!
210 :
名無しさん@お腹いっぱい。:2011/04/07(木) 16:22:51.83
211 :
名無しさん@お腹いっぱい。:2011/04/07(木) 17:02:40.93
openindiana oi-148でxVMを動かしたところ、
仮想マシン作成前、何もしていない状態で
仮想マシンマネージャだけ立ち上げて、
Dom0の負荷を見ると20%ぐらいになっていたのですが、
Coreを更新してxVM環境を再度作り直したところ、
Dom0の負荷は1%以下に落ちました。
実際にそうなのか、表示の問題なのかは不明です。
> だったらアップデートマネージャで対応してくれてたらいいのに。。。
だいぶ触ってないから今はどうか知らんけど、
以前updatemanagerから「システム全体をアップデート」みたいので
普通にシステム更新した記憶があるのだが…
(だいぶ前のことだから記憶違いかもしれんが)
packagemanagerではなかったと思う。
213 :
名無しさん@お腹いっぱい。:2011/04/07(木) 18:10:46.63
214 :
名無しさん@お腹いっぱい。:2011/04/07(木) 19:17:49.64
>実際にそうなのか、表示の問題なのかは不明です。
実際にそうでした。
Core更新前のoi-148、非xVMな環境でパフォーマンスモニタを見たところ、
4つあるCPUのうち1つのCPUの負荷が異常に高いです。
何もしていないのに常時80%ぐらいかかってます。
残り3つは交代でやや高め10%ぐらいになります。
Core更新後のoi-148では、xVMな環境でも、高くて10%、その他は2%以下に収まっています。
高いものは4つのCPUでまんべんなく交代してます。
更新は必須かと。
>>packagemanagerではなかったと思う。
>pm-updatemanagerですね。
いあ、
アップデートマネージャとパッケージマネージャは別だったよな確か
といいたかっただけなのだけど……。
今時なんでもエクスプローラって言うのは止めてほしいなぁ
>>212 OpenSolaris 2009.6は出来たよね、確か。
ZFSが使いたいんだけど、OpenIndianaにするかFreeBSDにするか悩んでいる。
OpenIndiana 1.48って安定度はどれくらいですか?
去年の終わりからOIでZFS+iSCSI+CIFSで動かしていていろいろ負荷をかけたりディスクを引っこ抜いたりして
遊び…じゃなくてテストしているけどハードウェア起因の問題以外で面倒が起きた事がない。
むしろどうやったらこいつを落とせるのか教えて欲しいくらい。
おー、そいつは心強い。がぜんやる気になってきました。
>>219 俺もRAIDZ+iSCSIで使ってるけど本当にイイよね。
ところでdevice-thresholdsを設定してもHDDが寝ないのは、ZILを別のSSDにしてlogを書き込まないようにすれば寝るようになるのかな?
これだけが唯一の不満。
Solarisの CIFSサーバて Sambaよりいいの?
良いか悪いかはわからないがとてもお手軽なのは確か。
ファイルシステム単位で公開するからいろいろな設定を個別に適用できるってのも。
ZFSのCIFSは正直おすすめできない
日本語環境でトラブルが多いってよく聞くし
そう?
utf8only
normalization
casesensitivity
この辺ちゃんと設定してりゃ問題なさそうな気がするが。
ちょっと質問したいのだけどSolaris系ってブート用にUSBメモリって使う?
五年くらい止める気のないストレージ鯖の起動ドライブをどうするか悩んでて
ミラーのHDDを用意するのは無駄にみえるし
USBメモリだとSLCで耐久性のありそうなもの自体が見つからないし
東芝かインテルのSSDが一番無難に見えるけどもったいないし
で、迷っているのですよね。
皆さん何使ってますか?
5年位止める気がないってのが、無停止サーバ的に止められないものという意味なら、
HAとかサーバ自体の多重化をどうするよ? みたいな話だし、単に壊れたら止めて交換で
いいよと言うレベルのお話なら何でも構わないと思うが。
やっぱそういう話になりますよね。無停止と言うほどでもないので東芝SSDにしときます。
あ、止める気がない鯖ってのはディスクだけは鯖を止めずに交換して
それ以外の部分はどのみちシステムごと落ちるのでマシン丸ごと入れ替える気です。
なのでシステムドライブをどうするか悩んでました。
そういう用途で SSDがもったいなくて USBメモリ、ってのがよーわからん。
書きそうなとこはメモリ上かデータディスク上へ飛ばして起動メディアは
リードオンリーにするとか。
USBメモリ2本挿してミラー組むのが手軽なんじゃね?
SSD高いとか以前に、ストレージ鯖的にはSATA埋めたくないし。
まぁSSD使うならスライス切って一部をストレージプールのL2ARCとかに回すと少しお得感があるか?
そういやH67のマシンでoi_148LiveCDの起動だけやってみたけどとりあえずSATAはahciで認識してた。
HD3000は当然効かないけど一応SXGA限定で画面だけなら出た。
俺はNASとしてEONをUSBメモリに入れて運用してるよ。
OpenIndianaとかをUSBメモリにぶっこむと動作が遅すぎて使い物にならん。
一応EONはプラグインチックにWeb鯖等も建てられるみたいだから、そのうち試してみようかな、と。
>>231追加
放っておくと32bitモードで起動するので、grubの画面でe押して$ISADIRをamd64に書き換えてやったら64bitで起動した。
opensolarisはUSBがシステムだと糞重い経験しかないな
おとなしくSSDでいいと思うが。
SSD使うなら一応アラインメントオフセットも考慮した方がいいかもしれない
まあパフォーマンス的にそこがやばくなるってことも無いとは思うが
OIでサポートしてるsataカードおせーて
237 :
名無しさん@お腹いっぱい。:2011/04/13(水) 14:49:44.73
OI148のrpoolをmirrorしたいのですが、追加したいHDDのLabelをSMIに変更しているにもかかわらず、EFI labelなので駄目だと言われて attach 出来ません。
再起動してもダメでした。
148のバグなのか、なにか特別なやり方があるのでしょうか?
もっと具体的に何をやったか言ってくれないとアドバイスのしようがない。
それにそのたぐいの話なら英語で検索すれば幾つかヒットしたはず。
239 :
名無しさん@お腹いっぱい。:2011/04/14(木) 01:55:15.40
>>238 実機でやる前にテストでVMWareで遣りました。
その後同じ事を実機でも試してみましたが同じ結果でした。
1. VMwareでOIを10Gにインストール。
2. ミラーするために、10GのHDDイメージを追加(c2t1d0)。
3. 追加したc2t1d0をformat -> fdiskでSOLARISパーティション作成
4. format -e c2t1d0でlabel確認。SMIになっている。
5. zpool attach -f rpool c2t0d0 c2t1d0 実行
6. エラーで失敗。cannot label 'c2t1d0': EFI labeled devices are not supported on root pools.
7. 念のため format -e c2t1d0 -> label でSMIを設定して5も再実行。
8. 6と同じエラー。
こんな感じです。
英語のページも見てみたのですが自分では見つけられませんでした。
どうすればミラー出来ますか?
>>239 prtvtoc と fmthard を使う方法はだめ?
prtvtoc /dev/rdsk/c3t1d0s0 | fmthard -s - /dev/rdsk/c3t2d0s0
こんな感じで rpoolをミラーにした事あるけど。
>>240 その手順、検索したら出てくるね。
ちょうど新規に起こすマシンがあったからやってみたけど何の問題もなくそれでいけた。
SAS3080につながった二台のHDDの片割れにスライス切って新規インストールして同構成でミラーできた。
同じ構成にしないでって言うのはやった事無いけど。
Xeonマシンで同期速度が1~7MB/sって何が起きているのやら…
>>240 s0ではなくs2で行けました!
それを実行後、s0をアタッチしたらミラー化されました。
有難うございます!
仮想ファイル鯖の仮想ディスクがOI148のCIFSに載っかっている。
遅い(鯖は全部P4)のは気にしないで差だけ見てみる。100MBのCDM。
WindowsXP->WindowsServer2003の共有フォルダ(WindowsServer2003上のVirtualBox4の仮想マシン)->OI148(CIFS)に仮想ディスク
Sequential Read : 7.379 MB/s
Sequential Write : 8.018 MB/s
Random Read 512KB : 8.334 MB/s
Random Write 512KB : 8.232 MB/s
Random Read 4KB (QD=1) : 3.016 MB/s [ 736.4 IOPS]
Random Write 4KB (QD=1) : 1.691 MB/s [ 412.8 IOPS]
Random Read 4KB (QD=32) : 7.620 MB/s [ 1860.2 IOPS]
Random Write 4KB (QD=32) : 2.466 MB/s [ 602.2 IOPS]
WindowsXP->OI148(CIFS)
Sequential Read : 9.694 MB/s
Sequential Write : 8.816 MB/s
Random Read 512KB : 7.844 MB/s
Random Write 512KB : 8.599 MB/s
Random Read 4KB (QD=1) : 0.443 MB/s [ 108.3 IOPS]
Random Write 4KB (QD=1) : 0.286 MB/s [ 69.8 IOPS]
Random Read 4KB (QD=32) : 1.156 MB/s [ 282.3 IOPS]
Random Write 4KB (QD=32) : 0.609 MB/s [ 148.7 IOPS]
以前、device-thresholdsを設定してもHDDが寝ないと書いたものですが、解決しました。
BIOSでSATAをAHCIに変更し、ZILを別にしてやったら寝るようになりました。
ZILを別にしてもSATAのままでは寝なかったので、AHCIに変更するだけでも寝るのかもしれませんが未検証です。
ただrpoolがAHCIにすると起動しなかったのでOIは入れ直しましたが。
ちなみに、LiveCDで起動してrpoolをimportするというワークアラウンドはダメでした。
ディスク6本でraidz2を構築したけど、logを入れるかどうか迷ってます
logを入れると、たぶん非同期やランダムの書き込みが早くなってるんだろうけど
ほとんど実感出来ないくせに、dd if=/dev/zeroを使って計った書き込みパフォーマンスが
220MB/sから105MB/sまで下がってしまうので、どっちが良いのか判断できません
SSDの書き込み速度は115MB/s程度出ているようです。
何か良い検証方法ないでしょうか?
いきなり電源引っこ抜いてみれば良い
>>246 ZILは無効にしてないんで、変わらないと思います。
調べていても、ログデバイスを独立させるとパフォーマンスが上がるという記載ばかりですが、
どの程度上がるのかっていうデータが出てこなかったのです。
実際に動作を見ていると、プールを構成するアレイへの書き込み(全体で50-300MB/s)と
slogデバイスへの書き込み(100MB/s この間、アレイへの描き込みは停止)が交互で発生していて、
slogデバイスがボトルネックになっているように見えているので気になりました。
すみません、さっきのは書き方が悪かったですね
logを入れるのではなく、独立logデバイスをいれるのか迷っています
>>245 CPUとメモリ量、HBAとSSDの機種は?
250 :
名無しさん@お腹いっぱい。:2011/04/17(日) 19:04:45.61
OpenSolarisスレの意外な活況に驚いた。
今日VirtualBoxにOI入れてみた。
>>233が参考になったありがと
>>249 i3 530/16GB/3081e-r/X25M120GBです
>>251 構成は問題ないけどZILに割り当てたデバイスの速度が遅すぎる。
ジャーナルログなんだからアレイの速度より高速でないと速度差で余計にかかる時間だけ全体の速度が落ちる。
非同期・同期混在の並列アクセスの負荷には強くなると思うけど。
あと今はどうか知らないけどZILデバイスの使用量はメモリの半分までって聞いた。
>>252 なるほど、ありがとう。
X25-Mは余裕を見て16GBだけパーティション気って、
あとは未使用で使ってます。
プレクのSSDが余ってるから、あとで入れ替えてみます。
速度は上がるだろうけど、耐久が不明だからちょっと使うのためらってました。
MicroserverにOpenIndianaを導入してNFSサーバを作ろうと考えているんだけど、
どんな構成がお奨めでしょう。
メモリ8GBにして、システムを独立した250GBのハードディスクへ、2TB*4をzraid1
にしようとしていたのですが、ZILの分離を考慮したほうがいいのかなー。それとも、
しょせんMicroserverのスペックなので、ZILやSSDの考慮は無駄でしょうか。
ZIL/L2ARCはSSD必須、ZILなら書き込み速度重視。
SSDは大容量になるほどライトが速い、でもZILに大容量は要らない。
悩ましいんだよなw
システム/ZIL/L2ARC/空き領域ってスライス切った128GBのSSDを2台でミラー組むとかアリかね?
にしてもZILをSSD1本に投げるのって怖いよな。
ZILって飛んだらどうなるんだっけ?書き込み中だったデータが飛ぶの?それともプールが壊れちゃうんだっけ?
>>255 ZILは、デバイスが壊れたり容量無くなると、自動的にメインプールに書き込まれるそうだからあまり心配ないかも?
>>252 >ZILって飛んだらどうなるんだっけ?書き込み中だったデータが飛ぶの?それともプールが壊れちゃうんだっけ?
ちょっと検索して調べてみたけど、ZILが逝っただけならメインストレージに移行するだけで何も起こらない。システムが逝くときの巻き添えならデータが逝く。
ZILは通常オンメモリで処理されるトランザクションのうち同期操作のログを別に書き出しておく事で
それを担保に未コミットのトランザクションをコミット済み扱いして同期アクセスの性能を向上する物だから
ZILが逝っただけならZILに載ってた未コミットのトランザクションがコミットされるまでの間、同期アクセスの保証が無くなるだけ、と思う。
>>254 CPUの限界が先に来るから無くても良いような気がする。
>>252 やはり高速なSSDをストライピングしないとダメかね?
>>259 同期書き込みが大半を占めるなら考慮しても良いかも。メモリが少ないとすぐ飽和して効果も少なそうだけどね。
キャッシュの使用率がすさまじい。
古いとは言えラプターのストライプだと高速だから遠慮無く使われる。
代わりにSASディスクのミラーでログに回した奴はぜ〜んぜん減らない。
まあメモリ2ギガだし…60GBも割り当てても…。
zilは取り外しできるけど、l2arcはいつでも外せますか?
外せるよ。先日組み替えるときにL2ARCを切り離してからexportした。
そりゃ搭載メモリの半分までしか使わないって言ってるんだから60GBは無駄だろ・・・
OIでUSBの液晶モニターって使える?
>>254 NFSを同期書き込みで使うならZILがある方が当然スループットは出る
ZILは同期書き込みが発生するかどうかが肝
まあZIL使いたいならアプリケーションの実装によらず強制的にすべての書き込みを同期書き込みにすることも設定で可能だけどね
268 :
254:2011/04/22(金) 00:50:22.39
みんなトンクス
ZILについては、有効無効を両方試してみるよ。
>>257の言うように、CPUの限界のために
差が出ないかもしれないし、
>>267の言うようにZILありのほうが早いかもしれない。
SSDが必要かは、ここで情報収集して、改めて考えます。
バージョンを指定してプールを作成する方法はありますか?
そのバージョンのOSで作成すれば良い
zpool create -o version=13 mypool
かな、できるとしたら。と思ってぐぐってみるとできるらしいぞ?
>271
面白い、と思って試してみたらホントにできた。自宅にはFreeBSD(8.2)しかなかったけど。
# dd if=/dev/zero of=/data/tmp/disk.img bs=1g count=1
...
# zpool create -o version=13 testpool /data/tmp/disk.img
# zpool status -v testpool
pool: testpool
state: ONLINE
status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
...
NAME STATE READ WRITE CKSUM
testpool ONLINE 0 0 0
/data/tmp/disk.img ONLINE 0 0 0
errors: No known data errors
# zpool upgrade
This system is currently running ZFS pool version 15.
...
VER POOL
--- ------------
13 testpool
...
VMware FusionかVirtual Boxで動けばいいかなって思ってるんだけど
oi 148がgrubから先に行かないのはどこかにFAQがあったりします?
>>273 fusionで動いている。インストールも問題なかった。
ちなみに実機ならgrubから先に行けなくてこけたりするのは古いマシンのUSBブートとかでよくある。
おかげでIDEのCD-ROMドライブを用意する羽目になった。
>>274 >>275 報告ありがとう。
うちの環境ではなぜか147は問題なく入るんだけど
isoから起動したあと、148だけgrubのプロンプトで止まっちゃうん
ですよね・・
もうちょっと調べてみますね。
oi_151のリリースがまた伸びた orz
あれ?でも、
Proposed Release Date: April 26-29, 2011
alphaの文字が消えている?
動かないと言えばオンボードのBCM5703がドライバアタッチでこけるな>OI148
oi_151はレビューに入ったみたいだね、もうちょっとで逢える。
てst
すみませんが、ぐぐっても目的の情報が得られなかったので教えていただけないでしょうか?
oi_148を使用してます。再起動するたびに、/etc/defaultdomain が消えてしまったり、せっかく編集した /etc/nsswitch.conf が元に戻ったりしてしまいます。
どうすれば設定した内容を再起動後にも反映させることができるでしょうか?
よろしくお願いします。
>>285 それ俺もはまった覚えがある
すまんが覚え書きがみつからない
でも俺は、ぐぐって解決したので
もっとさがせば見つかるはず
ああ、急に思い出したw
nwam関係じゃないかな
nwam サービス 停止 あたりでぐぐってみそ
svcadm disable nwam
svcadm enable physical:default
290 :
285:2011/05/07(土) 11:16:18.67
>>286 -
>>289 ありがとうございます! その通りでした。
見当違いのキーワード(BEとかZFSのスナップショット)に引っ掛けて検索して、なかなか見つかりませんでした。
たしかに、NWAM に関するページもヒットしていたのですが、それが原因とは思わなかったので、まじめに見ていませんでした。
G.W.のため確認が遅くなってしまいすみませんでした。
oi_151マダー??????
>>280 >>283 うちもoi_148でダメだった。148bもだめだねー。
うちだとデバイスはahci1で生えてくる(0は内蔵)けど、
ディスク挿してるとそいつのプローブでタイムアウトする。
oi_151はまだじゃろか
>>278のリンク先の
Important issues to resolve before OI_151 release
また新しいBugが見つかってたみたいだけど、これらが解消されないと
151リリースできないのかね
oi_151のProposed Release DateがTBAに…
これはいよいよということなのか、それとも後退なのか……
そーいやJarisってどーなってんの?
公式サイト見てきたけど、Sunの買収辺りで時が止まってるな。
どう見てもオワコン。
297 :
名無しさん@お腹いっぱい。:2011/05/18(水) 15:16:04.11
OI148ですが、DH57J+corei3で行けますか?
アルザス?
アルザス!
ロレーヌ
また国境紛争かよ
まあいいじゃん
306 :
名無しさん@お腹いっぱい。:2011/05/24(火) 23:17:50.66
dev-il が 151 になったぞ
151のISOはどこからダウンロードできるの?
低速回線にめげずちまちまOI_151にimage-updateがさっき終わったとこなんだが、
OI_151のwikiに書いてあるgcc4.5とかpkgsrcってどうやったら利用可能になる?
make install
やっぱgccは野良makeでpkgsrcはsvn coしなきゃだめなのか……
312 :
名無しさん@お腹いっぱい。:2011/05/29(日) 12:45:16.31
自宅ファイルサーバ用にzfs使いたくて、
OpenSolaris検討してたけど、別にFreeBSDでもいいかって感じになってきた。
別に悪くないですよね?
鶏卵の関係だしな。
pkgsrcにバイナリで追加すればいい様な気もするけどスタータキットとかブートストラップとか配布されてないの?
ファイル鯖お亡くなりの時にデータを抜いて来ることになると思うけど、ソラリスとフリビのどちらが扱いやすいかは人それぞれ。
zfsでサルベージって結構救えるの? 今のハードディスク要領だとddでセクタ単位で読み出して人力で繋ぎ合わせるとか気が遠く成りそうだがw
SolarisとFreeBSDに限定しなくても、実はLinux向けのNative ZFSも0.6.0rc1から普通に使えるようになってたりする。
「普通」っていうのはあくまで表面上動くってだけで開発版に安定性を求めていいわけではないが。
で、なんでoi151から(oi148bから?)レポジトリが/devから/dev-ilに変わったんだ?
il(lumos)ベースになったから?
確かdev-ilはテスト用のリポジトリだったと思う。
自分の把握してる範囲では、まだBuild 151はテスト段階だし、
MLでもGUIインストーラのバグ潰してるし、実際にアナウンスもされてない。
Work In Progress:
1. Release Engineering - Still working on oi_151 Live DVD ISO for official public release.
320 :
名無しさん@お腹いっぱい。:2011/05/31(火) 16:07:48.96
4GBのboot zfsドライブを8GBのドライブに移し変えたいんですが、
zfsとか、zpoolのコマンドでできるんでしょうか?
export して import とか send して receive とか
最近だと dd してなんかとかもあった気がする
322 :
名無しさん@お腹いっぱい。:2011/05/31(火) 22:39:14.77
最初に8GBのドライブにSolaris2パーティションを作って、
先頭セクタにMBRを仕込めばいいのかな。
でも、SolarisのMBRって、どのコマンドで仕込めるんでしょう?
このスレ検索したら起動ドライブのミラー化手順の話があるはず
>>325のリンク先をぐぐる先生翻訳かけたらワロタ
キムソンイルリポジトリって何だよw
ちょい素人質問でごめんなんだけど、
cronでdiskの表面検査をしたいんだがどうしたらいい?
fdiskで数パーテーション切ってあるけど全部を対象にしたい。
もしかしてformatじゃダメだったりするのか
>>309の件だが、oi-sfeレポジトリというのがあるんだな。
wikiにも(SFE)なんて書かれてるから、たぶんこれで入れたらいいんだろう。
format→analyze
>>329 それだと全域はチェックされない、、、というのは分かってて皮肉ってるのか
おちょくってんだろw
332 :
名無しさん@お腹いっぱい。:2011/06/07(火) 13:31:28.64
USB接続のHDDを沢山繋げて、raid-z組んでる人っています?
聞きたいことがあるなら
それを先に書いたら。
334 :
名無しさん@お腹いっぱい。:2011/06/08(水) 01:55:35.83
メインPCがSATA接続のものになったので、
IDE-USB変換したHDDとSATA接続のHDDで、raid-zを組もうと妄想してます。倉庫用なので速度は求めないつもりですが…
最近のopen-vm-toolsでvmware-user-suid-wrapperが動かないのはどうしてだ……
>>332 試しに2台でやったけど普通に動いたよ。
device-threshold も効いたし。
母艦はMacBook Proだけどw
SFEfuseを入れたらopen-vm-toolsのbuildがこけるようになった。
明らかに原因はvmblock-fuseのbuildができないからなのだが、
-std=c99つけたり関連するヘッダとかでいくつかの Bool を _Bool に
置き換えると問題なく全部通った。意味がわからん。
コンパイル通ったところからが勝負
正論過ぎて何の参考にもならんな
>>338 Software from this download site is not for general release. The
releases present here are for internal use purposes. You may find
that the software is buggy, incomplete, and potentially dangerous.
そんなことは当然のお約束じゃないか
344 :
名無しさん@お腹いっぱい。:2011/06/11(土) 03:05:47.35
>>342って正式リリースのお知らせ?
頑張って本番環境に投入しよっと。
>>344 頑張って下さい
貴方のバグレポを元に正式リリースが完成します
347 :
名無しさん@お腹いっぱい。:2011/06/13(月) 22:45:32.11
うわー、zpoolに追加していたHDDがどれだったか分からなくなっちゃった。
台数多いから特定するの大変、というか特定方法分からないから涙目。
HDDのシリアル番号からデバイスファイルとの対応がわかるんじゃね?
マザボのコネクタとHDDの番号って対応してなかったっけ。
障害時のzfs復旧の手段を調べるために実験してるんですが、
NAME STATE READ WRITE CKSUM
mypool ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c2t0d0p1 ONLINE 0 0 0
c2t0d0p2 ONLINE 0 0 0
c2t0d0p3 ONLINE 0 0 0
という、poolをexportして、sudo dd if=/dev/random of=/dev/rdsk/c2t0d0p2 bs=512 count=100とかやってから、importしてみました。
testuser@openindiana:~$ sudo zpool import mypool
Assertion failed: rn->rn_nozpool == B_FALSE, file ../common/libzfs_import.c, line 1077, function zpool_open_func
testuser@openindiana:~$ sudo zpool status
もう復旧無理?
同じディスクをパーティションで3つ切ってraidzしてたの?
そんなのやったことねーからわかんねーや。
>>350 c2t0d0p2が一部だけ壊れておかしなことになってるとか?
c2t0d0p2を丸ごと消してみるとかどうだろうか。
なんにせよ、実験するならファイルでやるかVM上で仮想ディスク複数繋げてやった方がよい。
353 :
名無しさん@お腹いっぱい。:2011/06/15(水) 17:59:53.39
>>352 c2t0d0p2はddで故意に壊してみたんです。
poolを他のPCに繋ぎ変えるため、exportした後に、HDDが一本壊れた場合、
どのように復旧させるかを想定しています。
まぁ、とりあえず -D -f 位はしてみるもんじゃね?
>>352 いやだから、同一ディスク上でRAIDZ組んだりパーティションをちょっといじって壊すっていうことが
実際にHDDが壊れた場合の想定に全然なってないからおかしなことになってるんじゃ、ってことなんだが・・・
そういう問題じゃないと思うよ。
>>350 デグレしたraidzをimportできないとか、
英語のMLでもちょくちょく話は出てる。
運用中の障害は対処していても外しておいといた場合の
故障モードはあんまり手が回っていない感じだね。
>>356 そうじゃなくて、HDDのパーティション情報ぶっ壊してたりしないの? って
ことだと。
358 :
名無しさん@お腹いっぱい。:2011/06/16(木) 12:02:22.40
そもそもどの程度の障害を想定した検証を行うのか、
それを検証する為の方法としてどのようにするのか。
検討が不十分な気がする。
汚染水の処理装置の検証したら水漏れしましたレベル。
360 :
名無しさん@お腹いっぱい。:2011/06/18(土) 05:40:15.62
>>359 HDDの連続したセクタの中身が破損して、
記録されたものと違うデータになった状況を再現したつもりですが、
ddでは適当でないってことですか?
そもそも、実運用で同一ディスクの複数のパーティションでraidzを組むのか?って話かと。
普通は別々のデバイスやファイルを使って実験すると思うけど
別ディスクでやればちゃんと動くの?
>>355でわからないんならどう説明してもわからねぇだろ。
あと、セクタの破損はデータ化けとは違うものじゃないかと。
セクタが破損したらそのことをOSは知ることができるけれども、
人為的にデータ化けさせたらOSはそのことを分からないから。
それでダメつってたらZFSが持ってるブロックチェックサムは何のためなのさ
>>365 ZFSが特別なハードウェアの支援無しで、
RAID5以上の信頼性をどう実現しているのか、皆目理解していないみたいだから、
相手にするのやめましょうよ
ふーん。そういう特別なソフトウェアの仕組みがあるのね。
調べてみよ。教えてくれてサンクス。
どんな前提知識でレスしてたんだ
最近出ている3TBのSATA HDDで3TBのresilverしたことある方いたら教えて欲しいのですけど、
どれくらい掛かるものなんですか
>>369 最安で9997円だよ。@kakaku.com
臭ェーーーッ!
サムスンの臭いがプンプンするぜーっ!
>>371 Westernだな>1万割り3T
HGSTだと1.2万程度。
値段ではなくて、時間のことなんですが…
>>373 ZFSは実際に使っている分しか検査しない。
32bitカーネルってもうないんじゃなかった?
x86で32bitカーネルが落とされるのはSolaris 11からじゃろ
>>376 CPUの種類を見て判断してたような
新しいCPUだと判断できなくて32bitで起動したりする
その場合は直接64bitカーネルを起動させるなどの対策がある
起動オプション指定すれば32/64は切り替えられるっしょ
確か搭載RAMが910MBだかより下だったら、自動的に32bitの方がインストールされる筈。
381 :
名無しさん@お腹いっぱい。:2011/06/26(日) 04:33:51.50
OpenIndiana151ってUSBフラッシュメモリにインストールできないのかね
なんだかなぁ
>>381 148とか前のバージョンはUSBメモリにインストールできたって事?
FreeNASみたいに簡単なWeb GUIパッケージがあれば、家庭用途にももっと普及すると思うんだがなー@oi
かといって、NexentaStorはさすがに融通が利かなそうだし。
>>383 FreeNASはNASディストリだろ。
oiに一体何求めてるんだ?
385 :
名無しさん@お腹いっぱい。:2011/06/26(日) 16:39:22.22
>>382 OpenSolarisだと、USBフラッシュメモリにインストールしたのが、何処かで見たことあったような?
んで出来るのかと。
openindiana-discussの日本語版ってないかな
>>384 自作板やハードウェア板見てると
SolarisでRAID-Zなファイルサーバ組みたい、って需要多いよ
組めばいいじゃん
napp-itって初めて知ったけど、いいなコレ。
これとwebminあれば、FreeNASいらなくね?
netatalkとかも自動で入れられるしいいよね>napp-it
zfsの管理自体はsshからやった方が楽だとは思うけど。
391 :
名無しさん@お腹いっぱい。:2011/06/26(日) 21:58:48.35
↓こういうのOpenSolarisでできます?
HAST tp://gihyo.jp/admin/clip/01/fdt/201106/23?skip
>>383>>385>>386 ぶっちゃけ148はUSBメモリにインストールできたよ。ただ重すぎて使い物にならなかった。
NexentaStorはUSBメモリに入れてWebUIも軽かったけど使い方がさっぱりわからなかった。
USBメモリに拘らなければSolaris10でいいんじゃね?WebUIも直観的に操作できるし。
ちなみに俺はUSBメモリにEON入れて半年程度運用中。
394 :
名無しさん@お腹いっぱい。:2011/06/26(日) 23:34:19.37
>>393 oi151も今インストールが進んでるところです。
16GBのUSBフラッシュメモリで、4時間かかってまだ31%ですけど...
FullSpeedで認識されてるのかな?
396 :
名無しさん@お腹いっぱい。:2011/06/27(月) 01:02:48.70
どうなんでしょ?
どこ見ればFullSpeedか分からないので
ようやく終わった。インストール開始から12時間。
インストーラがとまってるんじゃないかってくらい遅いねぇ。これ。
oi 148入れた時には6時間だったな。99%から先が1時間弱かかったのにはまいった。
Windows上のVirtualBoxやVMwarePlayerにインストールした時も
99%から先が長かったから、そういうものなんでしょうね
個人ブログなんかでも、99%で止まってインストール出来なかった、
って書いてる人が結構いるけど、あれも待ってれば大丈夫だったのが大半なんだろうな。
402 :
名無しさん@お腹いっぱい。:2011/06/27(月) 17:36:10.76
OpenIndianaはブートファイルシステムをzfsにしかできないのかな。
もっと軽いファイルシステムがあればいいのに。
403 :
名無しさん@お腹いっぱい。:2011/06/27(月) 23:30:39.99
USBブートのoi151のお話の続き。
WesternDigitalのEZRSという3TBのHDDをSATAケーブルにつなげてみました。
# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c4d0 <drive type unknown>
/pci@0,0/pci-ide@1f,2/ide@0/cmdk@0,0
これって3TB HDDを認識してないですよね?
使えないとなると俺のIYHが...
そうか?
ハード構成は?
406 :
名無しさん@お腹いっぱい。:2011/06/27(月) 23:43:57.10
DELL PowerEdge SC430 (メモリは、たしか2GB)
外部ストレージは、3TB HDD(WD30EZRX)と
Transcendの16GBメモリのみ。
あと内蔵のDVDROMドライブ。
EZRSは誤字です。
407 :
名無しさん@お腹いっぱい。:2011/06/27(月) 23:51:56.95
# sudo zpool create testpool c4d0
# sudo zpool destroy testpool
ってやってから、↓したら、WDCの文字が見えてきた...
訳分からん。
# sudo format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c4d0 <WDC WD30- WD-WCA*********3-0001-2.73TB>
/pci@0,0/pci-ide@1f,2/ide@0/cmdk@0,0
Specify disk (enter its number): 0
selecting c4d0
NO Alt slice
No defect list found
[disk formatted, no defect list found]
FORMAT MENU:
...以下略...
そもそもBIOSで3TB認識できないだろ
あとOpenSolaris系はUSBにインストールはおすすめしない
ブートしてもシステムへのアクセスが頻発するからデータ領域のI/Oも重くなる
NexentaStorもUSBはおすすめしない
USBインストールでZFS使いたいならFreeNASにしとくのがよかろう
409 :
名無しさん@お腹いっぱい。:2011/06/27(月) 23:55:20.04
# sudo fdisk /dev/rdsk/c4d0
ってやると、
Total disk size is 60800 cylinders
Cylinder size is 96390 (512 byte) blocks
Cylinders
Partition Status Type Start End Length %
========= ====== ============ ===== === ====== ===
1 EFI 0 60799 60800 100
な感じ。
これから書き込みテストしてみようと思いますけど、dedupを効かせない
やり方ってありますかね。
ああ、USBブートでの話か
勘違いしてた
>>409 dedupを効かせないというかzpoolのプロパティで自分でonにしないと有効にはならないぞ
あと書き込みテストするならzpool作ってからやってね
412 :
名無しさん@お腹いっぱい。:2011/06/28(火) 00:00:05.56
今までの話は、USBフラッシュメモリに
oi151をインストールしてからの実験です。
空いてるHDDが無いもので。
init 5してもシャットダウンできないとか、ブートしていつまでたってもgdmが
起動してこないとか色々不具合ありますが、それはさておき。
続けるなら、コテ付けてくれ
414 :
412:2011/06/28(火) 00:16:46.49
>init 5してもシャットダウンできないとか、ブートしていつまでたってもgdmが
>起動してこないとか色々不具合ありますが、それはさておき。
ちなみに、↑の不具合はVirtualBoxのoi151では出てないので、
USBフラッシュにインストールしてるから?
EONのUSBメモリブート結構いいけどなあ。
ZFSのバージョンが22とか古いのがちょっとだけ不満。
NASディストリとしては圧倒的にFreeNASの方が多機能だけど、
それでもSolarisが好きなので拘っとく。
416 :
412:2011/06/28(火) 00:33:13.43
>>415 EONは、内蔵のコマンドが少ないのが個人的に心配。
復旧作業はoi151ですればいいんだろうけど、
oi151はZFS ver28で、EONのZFS ver22のファイルシステムをいじると
どうなるか分からず不安。
ZFSやiSCSI使うなら、圧倒的にSolaris>FreeBSDだしね
freenas(freebsd)のiscsiってユーザーランド実装?
カーネルモードなら別にsolarisでなくてもいい気はする
いやCOMSTARもいいんだけどね
>>416 >oi151はZFS ver28で、EONのZFS ver22のファイルシステムをいじると
特に問題無いと思うよ。zpoolをアップグレードとかやらなければ。
コマンドはあらかじめ突っ込んでおけばいいんじゃね?
420 :
412:2011/06/28(火) 02:34:51.55
話変わるけど、rpoolのsnapshot取って、他のpoolにsend/receiveすれば、そのpoolで起動できたりするのかな?
MBRのGRUBも移さないとだめか。
録画マシンとRAID-Zなファイルサーバを統合したいのだけど、
SolarisでPT2を安定して動かすのって難しい?
ググったらLinuxやFreeBSDの情報は一杯でてくるのだが、Solarisはサッパリ……
423 :
名無しさん@お腹いっぱい。:2011/06/28(火) 22:40:48.86
>> 421
illumos に PT2 ドライバプロジェクトでも立ち上げれば?
>>421 Solaris向けPT2ドライバは無いでしょ。自分で書くしかないw
FreeBSDでがんばるか、CPUがVT-d対応ならESXi上でSolarisとWin動かす変態の道か。
あとはfuseで妥協するか、
ttp://zfsonlinux.org/ こういう怪しいモノに手を出すか。
俺はSandyマシンを録画鯖・エンコ鯖として統合してストレージ鯖は別にしてるけどなー
>>424 ESXiじゃPT2動かんでしょ。
PCIパススルーでの動作実績無かったと思うけど。
まぁ、常時稼働のファイル鯖と録画機を一緒にできたら理想的だよね
スタンバイ復帰失敗とかに悩まされることもなくなるし
ファイル鯖にZFS使いたいなら、現状 上の人が言ってるとおりFreeBSDしかないかな
LinuxのfuseやNative ZFSはまだまだアレだし……
どうしても1台で済ませたいなら、Xen使ってDomain-0でPT2動かして、
ZFSなファイル鯖はDomain-U(HDDは物理ディスクをアタッチ)で、という方法もなくはない
当然 実機よりRAID-Zの速度は劣るけど、家庭内の利用ならGbEが一杯一杯になる程度出れば充分でしょ
>>425 XenかKVMじゃないとだめなのか。どっちにしろSolarisはゲストになるから
>>427の言うとおり遅くなるよな。
ちなみにLinuxホスト+VirtualBox/VMware+OIゲストに物理HDD割り当ては微妙だった。
ディスクI/Oが仮想化されることよりも仮想NICが遅いみたいで速度が出なかった(VMwareでvmxnet3使っても)
自分の構築した環境がタコだっただけかもしれないけど、GbEも使い切れなかった(ホストでは使い切れる)
ZFSなファイル鯖はCPUとメモリ盛ってて結構電気食うけど、止められない録画鯖を省電力仕様にして
ピークタイムはファイル鯖止めるってことができるので別々もまぁいいかなと思ってる。
>>428 LinuxホストってこはVMware Serverだよね?
まぁ、ESXiでもOpenSolarisやFreeBSDはパフォーマンスでないからね。
この辺はドライバの作り込みや、準仮想化の対応とかが関係するんだろうな。
ゲストがLinuxやWinなら、SMB/CIFSやiSCSIで100MB/s前後でたりするし。
実機のときは70〜90MB/sか
Atom並のCPUでそんだけでたら、万々歳だな
>>429 いや、PlayerもLinux版あるよ。
サーバの話してるときに、VMware Playerのこと持ち出されましても……
手軽だからdetachとVNCを有効にして使ってるわw
サーバーでPlayer使っちゃだめなのか?
むしろ長らく更新されてないServerよりPlayerの方がいいと思うんだけど。
NFC/NFDってみんなどうしてるん?
停電に耐えられない+放射能に動揺でMac買ってしまったのだが、
結局のところどうすればいいのかよく分からぬ。
439 :
名無しさん@お腹いっぱい。:2011/07/01(金) 12:07:02.84
上でも少し挙がってるけど、OpenIndianaをホストとする場合、仮想化ソフトは何がオススメ?
今はESXi使って各種サーバを統合してるのだけど、
OIでZFSなストレージ鯖を立てて、物理マシンはそれ1台にしようと思ってる。
幸い、ゲストOSの負荷は高くないのでハイパーバイザタイプでなくとも大丈夫だと思うので。
440 :
名無しさん@お腹いっぱい。:2011/07/01(金) 12:36:24.27
そりゃ、oracle製の仮想マシンがあいんじゃない?
というかSolaris系ってVirtualBox以外の仮想化ソフトあるの?
昔はqemuも動いた
bochsはどうなんだろ? 試したことないけど
>>439 Solarisコンテナに決まってるだろ。
Logical Domains とか
Solaris Containers がある
あれ、ろくに開発されず、放置されてないか?
Oracle様が儲からないことやるわけ無いだろ
ハードディスクを4つのパーティションで切ってwin,data,linux,solarisに分けようとした場合、
c1d0p0 (c1d0)
c1d0p1 win
c1d0p2 data
c1d0p3 linux
c1d0p4 solaris (c1d0s0...c1d0s9) (c1d0s2)
こういう理解でOK?
450 :
名無しさん@お腹いっぱい。:2011/07/03(日) 03:17:04.24
c1d0p0とかc1d0s0とかc1t0d0s0って、何が違う?
物理HDDのどこと対応しているのか、いまいち分かっていないのだが。
OIはSSDのTrimコマンドに対応する予定はないのかな
ZILやL2ARCにSSDを有効に使いたい人も多いと思うのだけど
452 :
名無しさん@お腹いっぱい。:2011/07/04(月) 14:12:27.79
つか、カーネルいじれるのはoracleだけでしょ?
ドライバ追加するのが関の山じゃないかな
ZFSはリビルド時に使われている領域だけ同期することでわかるように
使ってない場所の内容がどうなろうと関係ないんじゃね?
元麻布氏と言えばPCハードウェア以外にも手を広げてしまい
知識不足の記事を見かけるようになって痛々しいと思った事が・・・
ならZFS のスナップショットってどうやって実現してんだろ
スナップショットは起点となるブロックポインタを保存するだけだぞ
ちゃんとした資料読んでこい
ファイルの実体消えてそいつにtrim掛けたら
ポインタだけ残っててもスナップショットの意味ないだろ
ファイルの実態がどうして消えてるんだよ
無知なら資料読んでこいつってんのにバカかお前
スナップショットからつながれてるブロックは使用中のままで
スナップショットに含まれるファイルを削除しても空き領域は増えない
空き領域となるのはスナップショット削除の時点だボケ
分かった読むよ
資料よんでやっぱ自分で試さんとあかんな
>>457-458 まさに↓このとおりの流れでワロタ
482 :名無しさん@初回限定:2007/09/10(月) 02:39:05 ID:+7lLhCDw0
2chで調べ物をしたい時は「教えてください」って書いても
なかなか教えてもらえない。
そういう時は、知ったかぶり風に間違ったことを自信満々に書く。
そうすると、ものすごい勢いでツッコミを入れてもらえる。
それもまた技術というものだ
それで解決すりゃいいんだけど
どんどん脇道にそれてわけわかんなくなったりとかありがち。
ツッコミ自体も間違いがあったりしてどんどんカオスに。
464 :
名無しさん@お腹いっぱい。:2011/07/06(水) 16:45:16.35
そしてソースは2chという体たらく
ネットで調べたことだから間違いないと思い込んでいる救えなさ大爆発
相手に基礎知識が皆無だからぜーんぜん話が通じなくて暖簾に腕押し糠に釘
昔は良かったな
良書はあったしわかんなきゃ聞く前にソース読む奴ばっかりだった
いまや教えてくんもドン引きする連中がごろごろしてる
>>465 もしかして本で読んだことだから間違いないと思い込んでいるタイプ?
467 :
名無しさん@お腹いっぱい。:2011/07/07(木) 01:45:50.28
>>466 だから、“良書“って言ってるだろ。
信じるに足るものが良書っていうんだよ
そのまた昔は本なんてなかったが。
どのUNIXワークステーションを買っても、とっつきにくいマニュアルがあほみたいな量で納品されたっけ。
でも、あれを良く読んだ。
ほとんどの部分がオンラインマニュアルを印刷しただけ
OpenSolarisを使えば高速で大容量なファイルサーバを組めると聞きました。
初心者にも簡単に導入できますか?
…あぁ、遂に俺の常駐スレにまでやって来たか
普通運転免許も持ってない人が、
突然レーシングカーに興味を持って「簡単に運転できますか?」と聞かれてもなあ。
生まれ持ってのセンスがよほどあれば、ひょっとしたら運転できちゃうかもね。
Windows Home Server 2011スレで住人が初心者にWHS2011よりもOpenSolarisの方が使いやすいと薦めていたよ
WHSよりある意味使いやすいのは間違いなく事実だが・・・
そもそも何の初心者か書いてない。
パソコンに触るの自体が初めてという初心者なら簡単とは言い難いけど
FreeBSDとかLinuxとかいろいろ経験してきたけどOpenSolarisを触るのが初めてという初心者であれば多分簡単。
これから自宅サーバーを構築しようとする初心者ですね。
ウインドウズXPなど普通のOSを使っていて自作パソコンも組み立てるけれども、
サーバーOSに触れたこともネットワークの知識も無いという初心者。
元のスレを見るに、人として初心者っぽい
■RAGEくんの軌跡
NAS・自宅サーバを自作するスレ
http://hibari.2ch.net/test/read.cgi/jisaku/1280405233/821,823,826,829,831,834,841,849,852,854,857,859,862,864,867,869,879,882,885-886,888,893,896,898,902,910,915,918,821,923,925,927,933,934,937-938,943,952,955,961 くだらねぇ質問はここで@自宅鯖 45台目
http://hibari.2ch.net/test/read.cgi/mysv/1308284994/224,226,230,236,237,246,254,261,262,265,269 Fedora 総合スレッド Part 49
http://hibari.2ch.net/test/read.cgi/linux/1302163208/853,856,858,860,862,864,86 Windows Home Server 2011 その2
http://hibari.2ch.net/test/read.cgi/win/1307322007/564,567,577-578,581,586,591,602,606,609,615,621,627,629,631,634,636,642,657,659,662,669,672-673,676,680,685,690 【NAS】FreeNAS Part7【FreeBSD】
http://hibari.2ch.net/test/read.cgi/mysv/1307523097/202 OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://hibari.2ch.net/test/read.cgi/unix/1285876800/471,477 ←new!
>>476 ファイルシステムとOSの違いがよくわかってない初心者
481 :
名無しさん@お腹いっぱい。:2011/07/07(木) 21:16:23.22
でも、だんだんステップアップしてるんだね
人としてステップダウンしてる気がするが
>>471 amazonでOpenSolarisスタートアップバイブルとZFS本でも買って読むといい。
自分で何とかできそうな気がしたら、Solaris11ExpressかOpenIndiana148でも
ダウンロードしてきて実機なり仮想環境なりで試行錯誤すればいいよ。
よく、まともに相手するもんだ
488 :
名無しさん@お腹いっぱい。:2011/07/08(金) 03:42:29.34
いいんじゃね?RAID1がバックアップだと思いたいんなら。
ただ、それは心の内に秘めておいて、人に押し付けないで欲しいんだな。
489 :
名無しさん@お腹いっぱい。:2011/07/08(金) 03:45:19.15
あ、あとRAID1=バックアップって意味では決して他人にしゃべらないで欲しい。
きっと大事故につながるから。
初心者で知識ないから教えろと言いながら、
自分の考えを否定されるのは絶対に認めない人だね。
何がしたいのかわからない。
病的な負けず嫌いというか、実力が低いのに対してプライドだけ異常に高い感じ。
理系大卒にはよく居るタイプと思うけどね。
現実の厳しさを知って鬱ったりしがちwww
Wikiより
(引用開始)
本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全な『バックアップドライブ』である。
故障したハードディスクを交換すればバックグラウンドでディスクデータの復旧が行われるため、システムダウンからの復旧が速い。
(引用終わり)
上記の性質から、広義の意味でバックアップと言えます。
ハードディスクそのもののバックアップですね。
皆が敢えてOpenSolarisを使う理由って何?
やっぱりZFSとCOMSTARが大半なのかな。
バックアップの側面があるってことは納得できるが
本質的な意味がバックアップと言われると俺は納得できないな
確かにリアルタイムバックアップではあるが、そこまでいくともう冗長化に性質が変わる
バックアップが常に上書きされているからね
Wikipedia、それも字句が使われてるってだけを根拠に物を言おうなんて情弱もいいところw
どこかの個人のブログ引っ張ってくるのと変わらん。
俺はバカだ、って叫びたいけど恥ずかしいから婉曲に言ってるつもりなのかなぁ。
RAID1は、
ハードウェアとしてはバックアップドライブだけど、
データのバックアップという意味はないよ。
Wikiの記述はそういうこと。
>>497 百も承知
はじめからHDDのバックアップと述べている
499 :
名無しさん@お腹いっぱい。:2011/07/08(金) 23:40:24.01
RAID1の本質が洞察できないのだから、理系って言っても多分進路を間違えた系だと思う
ろくな元ネタないから私見に満ちているかもしれんなぁ?なんて突っ込まれている日本語版なんて投げ捨てて英語版の方を読んだほうが良い
もういいよ。RAGEくんを語りたいなら、向こうで存分にやってくれ。
OS名は惑星ソラリスから来てるの?
503 :
名無しさん@お腹いっぱい。:2011/07/09(土) 00:47:12.93
ん?SunOSだろ?
そろそろCampus だの School Bus だのが通じない時代になってきたのかなぁ
>>504 なにそれ、おいしいの?
”SunOS and OpenLook Are Running on Intel and SPARC”
がSolarisの語源といううわさがあるが、出典が確認できない・・・
惑星ソラリスに決まってるだろうが!
"Solar is" Sun.
とりあえず泰平ヨン読んでから出直してこい
BIOSでのGPTからの起動への対応はまだかね
511 :
名無しさん@お腹いっぱい。:2011/07/09(土) 19:15:55.77
>>510 EFIでGPTから起動を継続できないの?
? EFIが無いM/Bのこと言ってるんじゃないの?
513 :
名無しさん@お腹いっぱい。:2011/07/15(金) 09:37:27.85
OpenIndianaで動くInfiniBandのSubnetManagerってないでしょうか?
是非ともoiを、ZFSで高速なストレージサーバに仕立てあげたいところなのですが……
515 :
名無しさん@お腹いっぱい。:2011/07/22(金) 00:29:54.63
話題ないね
517 :
sage:2011/07/22(金) 02:23:26.94
>>517 点状角質融解症(蚕食性角質融解症)
「点状角質融解症(てんじょう かくしつ ゆうかいしょう)」とは、足の裏に小さなクレーター状の凹みを生じる細菌感染症です。
足の裏に長時間汗をかいた状態にしていると、湿潤した皮膚表面に雑菌が繁殖します。
増殖した雑菌から出される角質溶解酵素によって角質が虫食い状に陥凹し、多数のクレーター状になる訳です。
不潔にしておくと、足の裏全体に拡大し悪臭を放つようになります。
スポーツ選手の足に多い症状ですが、足白癬や尋常性疣贅などがあると更に合併しやすいと考えられます。
まず、足を十分に洗い清潔に保つ必要があります。
抗生物質など、抗菌作用のある薬を用いて治療します。
真菌(カビ)感染やウイルス感染の併発も多いですから、皮膚科専門医の診察を受けるようにしてください。
スポーツ選手の足の裏って汚そうだな
ExadataでInfiniband使ってても、あれはOracle Linux駄科w
522 :
名無しさん@お腹いっぱい。:2011/07/31(日) 19:29:06.64
勉強会どうだった?
「びぎなーず」へ行ったが、割と面白かったと思うよ。
次回も「お題目」次第では行ってみたいと思う。
ZFS 2.8とか書いちゃうニュースソースってw
GbE NIC複数枚でnfsの帯域を広げたいんだけど、相手ホストが1つだとdladmのLACPじゃ分散されないよね
Linuxみたいに割と強引にラウンドロビンするような方法とか、スイッチと連携すれば可能とか、そういうのって無い?
相手ホスト単体だとGbEなら1Gbpsが上限になっちゃう?
よく知らんけど、両側のポリシーがL4で、スイッチが例えば Cisco なら、
port-channel load-balance src-dst-mac とかてけとーに設定してやれば、
少なくとも8本までは束ねられるはずだから、8G は逝くんじゃねーの?
xge 使えば 80G イケるのかもしれんな
>>527 恐ろしく情報がない上に基本的にハブ経由せず直結みたいなこと書かれてるんだが
一応スイッチ経由で頼む
>>528 手元にciscoが無いのでちょっと分からないけど、L4の時点で送信リンクは1本になるよね?
nfsだとそう簡単に変化しないから、ファイル転送がn倍速になることはないと思うんだけど。
LAGは1対1だと経路の冗長化にしかならないよね
n対1のときに有効なものじゃ?
> L4の時点で送信リンクは1本になるよね?
何で?
TCPヘッダならシーケンス番号違うだろうし、UDPヘッダならペイロード違うだろうから
チェックサム変わるんじゃないの?つまりはヘッダの内容が変わるんでしょ?
それをハッシュして送信インターフェース決めるんじゃないの?
そうはなってないように見えるが、どういう設定で実験したの?
>>531
Solarisでは無理ってことで。
カーネル的に一番新しくて、x86用バイナリーが配布されてる OpenSolarisって、何?
OpenIndiana 151?
>>534 ZFS+KVMか。
個人用途での仮想サーバなら、物理マシン1台で完結できて良さそうだ。
ESXiとかだと、別途iSCSIやNFSでサーバ立てなければいけないしね
DASでも冗長化できないことはないけど、高いハードウェアRAIDのカード要るし
SmartOS よいね・・・
とりあえず、情報がそれなりに出てきたら組もうかなぁ。LanLiからホットスワップ対応のMiniITXケース出るし。
RAIDカード経由で動かしてる134bなんだが、ホットスワップするとI/Oが止まってOSが固まるw
なにこれ・・・
zfsでsnapshot以外が使ってる実容量みたいなのってどうやって出せばいいのかな
圧縮有りで使ってるのでややこしいのだけど、全snapshotを削除すればどの程度空き容量があるのか、が知りたい。
えーっと旅費と宿泊費で4万くらい?
道楽すぎるw
SATAデバイスのリンクスピードが3Gbpsか6Gbpsのどちらになってるか調べる方法あるかな?
Solarisって、デバイスの状態を簡単に調べられないから初心者に難しくてイヤ
dmesgとかifconfigとかいろいろあるやん
> pkg: パッケージのメタデータが無効なので、要求された操作を完了できません。
> 詳細は次のとおりです:
>
> パッケージ 'pkg://sfebuild/lxde/file-manage/
[email protected],5.11-0.151:20110730T091007Z'
> のアクション 'dir group=herzen mode=0755 owner=herzen path=etc/xdg/pcmanfm/default'
> には無効な属性があります:
> '//etc/xdg/pcmanfm/default' をインストールできません。
> 'herzen' は不明または無効なユーザーです。
誰だよherzenて……
/dev が /dev-il と同じ中身になってる。本当にリリースが来たんだと実感した。
552 :
名無しさん@お腹いっぱい。:2011/09/14(水) 21:57:40.25
これ入れればいいの?
おねがい、優しく入れて
キタワァ*・゜゚・*:.。..。.:*・゜(n‘∀‘)η゚・*:.。..。.:*・゜゚・* !!!!!
147→151a入れてみた。
自分の使い方では利点も欠点もわからないぐらい普通に入ってしまいました。
でもVNCがつながらない・・・黒画面でしばらくすると切られてしまう。
/etc/services
vnc-server 5900/tcp # Xvnc 最初から入ってた。
/etc/gdm/custom.conf
[security]
DisallowTCP=false
[xdmcp]
Enable=true
# svccfg -s xvnc-inetd
editprop
setprop inetd/wait = boolean: true
# svcadm enable xvnc-inetd gdm
今まで通りだと思うんですが、なにか忘れてますかね?
556 :
名無しさん@お腹いっぱい。:2011/09/15(木) 13:25:01.61
腐ってやがる...まだ早すぎたんだ..
なんか# pfexec pkg image-update -vやると途中でエラーで止まっちゃう。
もし too slow 系のエラーなら wget とかで直接落として所定のディレクトリに放り込めばいける。
なぜpkgが外部のDLツールを使える仕様になってないのかよくわからないけど。
やっと出たのか
b134以来苦節何十年経ったんだろうか
再びタッチアンドゴ〜の日々が始まる
はずだ
560 :
名無しさん@お腹いっぱい。:2011/09/17(土) 19:59:09.89
苦節何十年って、なんのOSの話をしてるの?
ヤツの時空はねじ曲がっているのだ
ほむほむ…
OpenSolarisのextraリポジトリってもうアクセスできないよね?
564 :
名無しさん@お腹いっぱい。:2011/09/18(日) 12:51:35.08
OpenSolarisって、最新ハードウェアに追従してる?
USB3.0とかどうなんだろうか
男は黙ってファイバーチャネル
女々しい俺は、InfiniBandでいいや
567 :
名無しさん@お腹いっぱい。:2011/09/21(水) 03:28:28.52
Oracle solarisとはどんな関係?
まさか三角関係じゃないですよね
OracleSolaris(開発販売)→OpenSolaris(ソース公開)→Illumos(ソース補完)→OpenIndiana(コミュニティベースで開発)
大元の親がOracleSolaris
MacOSXとDebianGNU/Darwinみたいな関係って感じか?
570 :
名無しさん@お腹いっぱい。:2011/09/21(水) 08:16:13.73
んでも、OpenIndianaプロジェクトはカーネル作成できる
技術はないんだよね?
「カーネル作成できる技術」って? 全体はメンテできない、という意味?
カーネル関連は Illumos の方でやる
Illumos -> OpenSolaris の OS/Net (カーネル等中核部分) の
クローズドな部分の置き換えやバグ・セキュリティ対応等
OpenIndiana -> Illumos + SFW + XNV + JDS + PKG + etc. でディス鳥を作る
IllumosがSolarisのクローズドな部分の置き換えを作って、
Solarisのオープンソースな部分とIllumosが作ったモジュールを組み合わせて作ったのがOpenIndiana?
OpenIndiana 148って、無償で商利用可能? Oracleからイチャモンつくの?
前身のSUNが自分からCDDLで公開したんだから
CDDLの範囲で利用する限りイチャモンつけようがない
FedoraとRedHatEnterpriseとCentOS/ScientificLinuxの関係に近い
といえば分かりやすいのでは。
言いたいことはわかるが、それFedora関係なくね?
Solaris 11の本リリースとソースコード公開はいつ?
>>575 Illumosの「クローズドな部分の置き換え」というのは、OpenIndiana 148では
欠けていて、今後補う、ということ?
出してくれる版元があれば書くよ!>11本
>>578 Solaris 11は年内、という話だったのでは。ソースコードは...
エリソンが墓場まで持って行きそうだww
SunOS 4.1.4の全体(SunViewや NeWS含む)のソース公開してほしいなぁ。
>>580 本リリース ≠ 本のリリースw
2011年11月11日リリースじゃないの?
>>579 欠けていたというより、OpenSolaris の OS/Net では
ソースが公開されておらずバイナリのみの提供という部分があった。
一部のドライバや G11N (国際化) 周りなど。
>>583 それは、oi_148には含まれてるの? 含まれてないの?
含まれてるんなら Oracleにチャモンつけられるんじゃないの?
含まれてないんなら、欠けてるってことではないの?
バイナリで含まれてるけど縛られない??
> 一部のドライバや G11N (国際化) 周りなど。
libc_i18n, NFSロックマネージャ、Crypto Frameworkの一部、とか書いてあるね。
oi_148を IBMの x3650て 2Uサーバーに入れようとしてるんだけど、
grub終ってカーネル(ブートローダ?)の SunOS Copyright の 2行ほどが出てすぐ
リセットかかって uEFIに戻ってしまう。
oi_147, 148, 151a 全滅。OpenSolaris 2009.06だとブートできるが
ディスクコントローラー対応してないみたいでドライブがなし状態。
回避策ある?
588 :
587:2011/09/23(金) 17:45:52.84
grub で -kv 付けたら panicしてた。USBキーボードからなんも受け付けん..
最後の画面だけ。
Using default device instance data
SMBIOS v2.5 loaded (3069 bytes)initialized model-specific module 'cpu_ms.GenuineIntel' on chip 0 core 0 strand 0
panic[cpu0]/thread=fffffffffbc2f260: vmem_hash_delete(ffffff01ca40d000, ffffff01cd363e70, 0): bad free
Warning - stack not written to the dump buffer
fffffffffbc716f0 genunix:vmem_hash_delete+d1 ()
fffffffffbc71740 genunix:vmem_xfree+40 ()
fffffffffbc71770 genunix:vmem_free+29 ()
fffffffffbc71790 genunix:kmem_free+217 ()
fffffffffbc71800 unix:fm_smb_fmacompat+178 ()
fffffffffbc71840 unix:cmi_read_smbios+2a ()
fffffffffbc718a0 unix:cmi_init+c5 ()
fffffffffbc718d0 unix:startup_modules+304 ()
fffffffffbc718e0 unix:startup+47 ()
fffffffffbc71910 genunix:main+38 ()
fffffffffbc71920 unix:_locore_start+90 ()
panic: entering debugger (no dump device, continue to reboot)
Welcome to kmdb
Loaded modules: [ mac unix krtld genunix specfs cpu.generic ]
[0]>
なんか外す指示とかしたら、あがったりしない?
589 :
名無しさん@お腹いっぱい。:2011/09/25(日) 03:06:42.02
外せんの?
590 :
名無しさん@お腹いっぱい。:2011/09/25(日) 21:14:01.72
USB HDDに入れたが、シャットダウンできねえ。
kvmちゃんと動いてます?
592 :
587:2011/09/26(月) 13:59:21.25
>>589 外し方おしえて。
/etc/systemに no_smbios = 1 とか ksmbios_flags = -1 とかは見つけたけど、
grubで指定するとか、できるの?
593 :
名無しさん@お腹いっぱい。:2011/09/26(月) 14:58:50.73
151日本語が打てねぇ。
594 :
名無しさん@お腹いっぱい。:2011/09/26(月) 19:19:31.61
誰かzpool upgrade -v見せて。
595 :
587:2011/09/26(月) 20:30:38.12
> oi_147, 148, 151a 全滅。OpenSolaris 2009.06だとブートできるが
IBMがサポートしてるはずの本家 Solaris10 u10 落してやってみたが
同じだった..トホホ IBMから入手する必要があるのか??
OpenSolaris 2009.06で追加ドライバー入れるのが正解?
>>593 日本語が打てれば何でもいいなら ibus/anthy でも入れてみるとかどうよ?
どうしても iiim でやりたい場合の方法は知らん
>>593 そういえば、俺もoi_151aに上げたら何故かIIIMFのサーバが起動してなくて、
日本語打てなくなったな。
サーバ起動すればまた打てるようになったけど。
598 :
名無しさん@お腹いっぱい。:2011/09/27(火) 00:03:35.84
なんだこのOS。fstab見に行かないのか
ZFS! ZFS!
もともと vfstab だし
601 :
587:2011/09/27(火) 21:43:42.60
>>601 乙
因みに同じくIBMの似たようなサーバで、instして正常に動くのだが、
ドライバがおかしいのかRAIDの1玉が死ぬと全体が止まるという症状があった。
RAIDコントローラーの意味ねぇよ氏ねとか思って結局別のOS入れちゃったんだけど実験しといた方がいいw
604 :
587:2011/09/28(水) 10:16:18.54
>>601 いちおー Solaris 11 Express 201011で USBメディア作ってあげてみたけど
やったけどやっぱり同じ、SMBIOSで panic。なんでじゃーw
Solaris 10 10/09以降で対応ってしっかり書いてあるのに..
>>603 MegaRAIDでは冗長構成なしで ZFSでミラーしようかと思ってる。
気をつけるよさんきゅ
606 :
名無しさん@お腹いっぱい。:2011/09/30(金) 11:58:24.79
Open系ユーザは切り捨てですか、ひどいな...
>ZFSv28 以降、ZFSに複数の実装が
>登場し非互 換が発生する
>可能性がある。
607 :
名無しさん@お腹いっぱい。:2011/09/30(金) 11:59:09.52
そういやZFSは暗号化がないのか
>> ZFSv28 以降、ZFSに複数の実装が登場し非互 換が発生する可能性がある。
すぐこんなこと書きたがるやつ信用できんなw
自分で forkするつもりでもあるんならまだしも。
609 :
名無しさん@お腹いっぱい。:2011/10/01(土) 17:09:33.57
oi151(not equal 151a)で、再起動すると/etc/nsswitch.confの内容が元に戻ってしまうためhostsの名前解決が出来なくて困っているんですけど、
これって自動復元のサービスでも動いているんでしょうか?
その都度/etc/nsswitch.confを
hosts: files dns mdns
に書き換えてやってるんですが、面倒くさくてしょうがないです。
このままだと、遠隔リブートもできないし。
NWAMをとっとと止めろ
611 :
名無しさん@お腹いっぱい。:2011/10/02(日) 16:52:08.85
え?
>>605 その記事書いた人って、昔から割といい加減なことを書くことがあるから、
実際に起きてる事と情報元以外は話半分くらいにした方が良いよ。
>>609 Oracle Solarisのドキュメントでも、過去のOpenSolarisのドキュメントでも、
ネットワークの設定については詳しく解説されてるから、一度読んだ方が良いと思う。
手動で設定ファイルを変更したい場合、nwamっていうサービスを切らないといけない。
そもそもSolaris 10のソースは公開されたことがない
OpenSolarisプロジェクトで公開されていたのは
Solaris 11として開発が進行中だったソースコード
長文失礼します
ZFSのemulated volume(zvol)のスナップショットについての質問です。
現在zfs+iscsi環境を構築するためのテストをvirtualBOX上で行なっているのですが、
zvolのスナップショットを取った時の振る舞いについて期待とは異なる結果になりました。
行った実験は以下のとおりです。
本来ならばsolarisで実験するべきですがvirtualBOXではうまくいかなかったので
FreeBSD8.2とScientific Linux6.1+zfs on linux0.6.0-rc5でテストしています。
8GBのzpoolであるpool0を作成
zfs create -V 5.5GB pool0/vol0 でzvolであるvol0をpool0から5.5GB分切り出し
vol0をiscsiで別マシン(centos6)に提供し、ext4でフォーマット
この時点でのzfs list
NAME USED AVAIL REFER MOUNTPOINT
pool0 5.67G 2.12G 32.9K /pool0
pool0/vol0 5.67G 7.37G 441M
796MBをvol0に書き込みした後のzfs list
NAME USED AVAIL REFER MOUNTPOINT
pool0 5.67G 2.12G 32.9K /pool0
pool0/vol0 5.67G 6.65G 1.14G
この時点でpool0/vol0のスナップショットを取った後のzfs list
NAME USED AVAIL REFER MOUNTPOINT
pool0 6.90G 915M 32.9K /pool0
pool0/vol0 6.90G 6.57G 1.23G
上記のようにスナップショット取得直前のvol0のREFER分だけpool0のAVAILが減少しています。
zvolではスナップショットの取得時点では容量を消費せず、取得時点と現時点との差分だけ容量を消費するのだと期待していました。
しかし実験では、スナップショットを取るためにはzpool全体の半分の容量しかzvolに割り当てできないことになり、
さらにzvolのREFERは中身のファイルシステム上でのファイル削除では減少しないので、定期的にミラーリングする方がましだということになってしまいました。
このような結果はzfsの仕様なのでしょうか。それともsolaris系では異なる動作をするのでしょうか。
zfs上のファイルとzvolを同じだと思ってるの?
たぶんreservationがわかってない
zfs(1M)のvolsizeのあたりでも読んでみれば
621 :
615:2011/10/06(木) 08:19:07.74
>>619 ZFSとzvolでのスナップショットには違いがあることは理解しています。
しかし、スナップショット取得時点では両者とも容量を消費しないはずでは、と考えています。
>>620 vol0に5.5GBが予約されているのは予想通りなのですが、
スナップショットが取得時に容量を消費するのがよくわかりません。
実際にデータを書き込みpool0のAVAIL<vol0のREFERの状態にするとスナップショットが取れませんでした。
だからzfs上のファイルとzvolを混同すんなと言っている
ZFSのお勉強スレがあるなら、そこで
バッキングストアを確保するかしないとか、そういう話?
混同するなと言ってる割には違いを説明できないんだなw
バカにされたまま放置されて悔しいんですねw
微妙に話が分からん
なんか知ってそうな人詳しく
>>622
USBなんかの外付けHDDを数個ぶら下げてraidz poolにしたら安価に安全な大容量えられるんじゃね?
と一瞬思ったけどたぶんこれ地雷だよね?
629 :
名無しさん@お腹いっぱい。:2011/10/10(月) 20:30:15.18
いや正しいと思うぞ
比較的安価でそれなりに大容量のpoolを組めると思うけど
USBコントローラで律速されてしまうよね
USB3.0なら速度もある程度マシなのかな
USB自体が地雷
本人が承知の上で使っていればいいじゃん
USBでZFS使うくらいなら、eSATAにするわ。
>>628 ありなアプローチだと思う。遅くても良ければ。
Win7ホストの中の VMPlayerか、VirtualBoxで Solaris/SmartOS/OpenIndianaの
どれかを動かして、VMの設定で Raw SATA diskをアクセスできるようにすることで
ZFSを使ったwin用サーバーを作ろうかとおもっているところ。
USBディスクはもちろん、VBox, VMPlayerどちらでも割と簡単に仮想マシンから
簡単にアクセスできる。
生SATAディスクもできるはずだが、ディスクを入手してきたが、
マザーボードのポートの不足とケースの都合でまだ踏みきれてない。
635 :
634:2011/10/10(月) 23:23:04.89
USB3.0なら、HUBにフラッシュメモリを何本か挿してRAIDZで使うってのは面白い
と思うしアリじゃないかと。速度も十分だろうし。
637 :
名無しさん@お腹いっぱい。:2011/10/11(火) 00:13:36.03
USB3.0で、これやればいいの?
tp://blogs.oracle.com/yappri/entry/usb_zfs
お?結構肯定的意見多いのな>USBでZFS
確かにコスパというか拡張性は最強だと思うのだが、
反面、故障モードがどこまで考慮されてるか不安ではあるな。
なんかで不具合生じたときに安心して対応交換できるのかがかなり危ういのではないか。
はぁ?
単体のコストだと内蔵HDD>外付けHDDなんだよなぁ。
SATAポートさえ足りてればUSBにする必要は無い気も。
USB3.0接続で非RAIDで個別認識できるHDDボックスを使うとかはどうだろう?
USB3.0一本に律速されるが充分速いような。
>>634 Linuxホストで同じこと挑戦したけど、LANの速度が出なくて挫折。せいぜい30MB/s前後だったかな。
Linuxホスト-PC間ではGbE活かせるんだが、仮想マシンのOIが遅い。
vmxnet3とか準仮想化ドライバも試みたんだが改善せず。
オンボLANが蟹、手持ちのLANボードもMarvellなもんで直にOI入れてもドライバの問題かやっぱりLAN遅いし。
結局ZFS on Linuxという安定性どこ行ったな構成で快適になってしまって溺れているところ。
solaris系はvmで動かすとやけに重い。なんぞチューニングできるのかも知らんが。
意外とnexenta storがNAS的用途にチューンされててIOより速かったw
USBでHDD増設できるならうれしい(台数増やせばLANの速度程度は出るんじゃね)けど、安定性には疑問だな
理屈としてはZFSでチェックサムかかるからUSBドライブが不安定でも大丈夫なんだが、
実際はというと怪しいよなぁww
トラぶった挙句zpoolごとお亡くなりとかありそう
IOより速いってなんだよ
OIのことか?
不安定なドライブでもチェックサムがあるから
理屈では安全だけど実際には怪しいって・・・
バカ丸出しにもほどがある
あぁすまんOIだ
で、具体的に何がいかんのか聞かせてもらおうかw
その程度のトラブルでpoolごと死亡とかあるんだったら、そもそもZFSなんか
使い物にならんわ
ZFSの仕組みがあるからハードエラーがあっても問題は起きないといっても
問題を起こしそうな事象は少ないに越したことはない、ということだろう。
それは幸せいっぱいだね
低い冗長度では対処できる状況も少ないのが当たり前
ハードウェアに問題のある環境でチェックサムがあっても怪しいよなぁ
とか言っちゃうのはバカの証拠だよねえ
そういや、napp-itの作者さんは、ESXi上でSASカードをPCI パススルーで認識させてNASとして使ってるみたいね。
あと、USB3.0ってOI151aで認識するんだっけ?
VM上からってのは、なしで
USBメモリ4本でRAIDZ実験してたらデータ吹っ飛んだ俺が通りますよっと
>>647 同時に壊れる確率が高いとどうなるのかね?
チェックサムやECCに頼れるのは、その冗長で回復できる範囲に限られる。
USBストレージの欠点は
パフォーマンスについての信頼性が著しく低いことで、
壊れやすいことではないと思うんだが。。。
ZFSはそれなりにパフォーマンスが保証されたデバイスで
使う前提で設計されているだろうから、その前提が崩れた時に
どうなるのか分からないというのが、論点なのではないの?
>ZFSはそれなりにパフォーマンスが保証されたデバイスで使う前提で設計されているだろうから
そうなのかな?15krpmの高価・高速なSASドライブじゃなくて安価・(比較的)低速なSATAでも高信頼性・高性能を実現するぜってコンセプトのような。
もちろんSATAドライブ使うのとUSB外付けにするのはまったく別次元の話だが・・・
絶対的な速度の問題じゃなく、「パフォーマンスについての信頼性」(安定性?)でUSBってSATAに対してどれくらい劣ってるんだろうか。
>>601 >> OpenSolaris 2009.06で追加ドライバー入れるのが正解?
IBMの x3650 M3て 2Uサーバーで使ってるんだけど、時計が狂う。
すごい勢いで進む場合と、1秒時計が進むのに 5秒くらいかかったりもする。
pkg image-updateやって snv_111bから snv_133にしたら SMBIOSんとこで
panicって上がらなくなるんだけど、その後元の snv_111bで上げて
使ってたらしばらくは時計が狂わなかった。
今は起動後狂うんだけど、touch /reconfigureしてリブートすると
なぜか直る。電源断後、起動ではダメ。
使われてるドライバーが違うとか、なんか確認する方法ある?
UEFIのせい?
>>652 USBはSATAに比べ、接続が途切れたり、ストールしやすいということだろう。
その話はUSB 2.0までと3.0でまた変わるような
OSの(たぶんWinよりはかなり)エラー時の対応が充実していないUSB&ストレージクラスドライバを、
デバイス(ドライバ)障害時の動作検証が(たぶんNTFSよりはかなり)為されてないZFSで使う場合に、
どの程度の総合信頼性になるのかってとこだよな。
USB接続デバイスに1000以上のqueueつっこんで応答無くなった場合には何秒待つの?とか、
どういうエラーモードならデバイスにリセット送ってやり直すの?とか検証以前に誰も使ってねぇし安定するわけがない
はいはいワロスワロス
>誰も使ってねぇし安定するわけがない
誰も使ってないのに、安定しないのは分かるわけですね。エスパーさんすごいですね
誰も使ってないのに安定してるのか。すごいなー(棒)
659 :
名無しさん@お腹いっぱい。:2011/10/15(土) 20:13:28.63
USBハードディスクにoi151aをインストールしようと思ってますが、
できます?
ちなみにoi151ではinit 5シャットダウンがうまく走らず、PCの電源が落ちませんでした。
>>659 oi_148bではできたし、できると思う。oi_151aにアップデートしても問題なく動作してる。
シャットダウンもできる。
661 :
名無しさん@お腹いっぱい。:2011/10/17(月) 08:52:23.67
http://www.yomiuri.co.jp/science/news/20111016-OYT1T00710.htm?from=y10 円周率10兆桁!会社員が計算…世界記録更新
「昨年10月10日からは、新たにハードディスクの記憶容量を
一般パソコンの約50台分の48TB(テラバイト)に増強して
10兆桁への挑戦を開始。たびたびハードディスクが故障し、
計算できなくなる日が計180日もあったが、その期間も含め、約1年かけて大記録を達成した。」
とあるが、ZFSで簡単にRAIDZとか組んでいたらもっと短縮できたか?
ファイルシステムだけでなくて、CPU、GPUがエラー起こしてないか、
ECCつかってるのかとか突っ込みどころ満載だが、つぎに20兆ケタまで
挑戦して10兆ケタまで同じならとりあえず10兆桁までは正しいと思うしかないか。
(東大の金田氏がやっているように、べつの計算方法で検証しているのだろうが、
そこまで新聞記事でも書いてほしいもんだ。)
ついったーでやれ
>一般パソコンの約50台分の48TB(テラバイト)に増強して
えーと、うちのHDDが今ん所 37TBだから、一般パソコンの1.3台分かな。
>>663 それが逸般パソコンだって事を認識しようぜ
>>664 エロ動画で37TB埋められるやつはむしろ尊敬するわ
ZFSスレがあるなら、そこでいい話題が多いな。
今だとZFS動くのはSolaris系、Nexenta、FreeNAS系、Linuxで強引に動かす系とかか?
有ってもいいかもな>ZFS総合スレ
ZFSの今の認知度ならスレ立ててすぐに寂れるってことは無いだろうし
情報が集約されてたほうが個人的にもありがたいな
先日ZFS Day 2011.10も開催されたところだし、需要は多いだろうね
Linuxで強引に動かす系にも手を出してる自分(とFUSE使いの人たち)からするとUnix板でいいのか悩むところではある。
Unix板でLinux使う話はNGなんだっけ?じゃなければUnix板でいいと思うけど>ZFSスレ
ただZFSネタを別スレにするとここが著しく過疎る気がw
それは言えるw
でも過疎ってもこの板だからそうそう落ちないからいいんじゃないか。
ZFSで独立したスレは需要あると思う。
zfs-discussも平気でFreeBSDでの話とか出てくるしねえ。
とりあえず立ったら使わせてもらうよ
674 :
名無しさん@お腹いっぱい。:2011/10/22(土) 09:55:36.11
ところで、linuxのZFSはどういう経緯で実装可になったの?
FUSE使ったりネイティブ版を自分でビルドして組み込むことのどこに問題が?
カーネルモジュール作成用のソース配布するから自分でビルドして使ってねっていう形態で
公式のLinuxカーネルに取り込まれることはないよ。
GPLのシンボル全部外してLinux用のカーネルモジュール作るのは大変そうだけど。
>>674 ライセンスはどうあれOSSなんだからいじったソース公開するのは自由よね、という形態。
というわけでソースは配ってるけどどっかのディストリに含まれることは多分無い。
まぁUbuntu向けppaとか公開されててボタン一発で入れられちゃう状態だけどw
Linuxでも、ZFS rootイケるの?
679 :
名無しさん@お腹いっぱい。:2011/10/23(日) 18:27:58.48
Solarisなら、ZFS rootも問題ない。
∩_
〈〈〈 ヽ
〈⊃ }
∩___∩ | |
| ノ ヽ ! !
/ ● ● | /
| ( _●_) ミ/ こいつ最高にアホ
彡、 |∪| /
/ __ ヽノ /
(___) /
いいや。クソつまる。
683 :
名無しさん@お腹いっぱい。:2011/10/31(月) 16:16:51.14
ZFSの話題もHDD価格高騰とともに消え去ったか。
>>683 年明け位から下がり始めるんじゃないかな?
685 :
忍法帖【Lv=9,xxxP】:2011/11/01(火) 00:31:29.76
あれ?
ZFS関連の操作の話題は別にここでやる必要ないから、どうでもいいかな。
まあ、春かGW頃まで復旧しないだろうね。
NexentaCore 3.0.1をインスコしようとしてるんだけど、Loading Kernelのところで
止まって先に進まない。
REIDカード外すと先に進むからこいつが悪さしてるようなんだけど、このREID
カード上に作ったアレーにインスコすることは出来ないんでしょうか?カードはLSI
です。
「REID」って何?
想像はつくけど、敢えて訊いて見る。
あ、すみません LEIDです。日本人はL/R区別苦手です。
もりあがってまいりますた!
そういう問題じゃないと思う。語源というか基本を理解してるかどうか。
つまり個人の問題。
会話でRとLの区別が苦手なのはよく知られてると思うけど、
読み書きで区別が苦手っていうのは、また斬新な意見だな。
All light LOL
日本人以前に読み書きの能力に問題があるだろう。
LEIDカードかぁ…
そのカード欲しいな
アレーってなるのか
日本人のふりをした半島の人でしょ
マジレスすると、略される前の単語を発音と一緒に覚えるようにすれば、そう言う問題は起こりにくい。
>>701 適切な回答が出来ないなら黙ってようね。ウザイから。
>>700 3wareがopensilarisに対応したのはすんごい遅かった(codeset9.5.1とか)ので
標準ではドライバは入っていません。だからといってbootで固まるのはダサいと
思うけど、それはそういうものとして諦めて下さい。
うざいのが大量に涌いてるなw
エラソーに語りつつのopensilarisにもワロタが
typoを必ず盛り込んでくる
>>689は芸達者すぎるw
typomissとか狙い過ぎだろおいww
さすがにこのレベルだと、入ったとしても使いこなせないから諦めた方がいい。
>>702 お前も適切な回答が出来ないなら黙ってようね。ウザイから。
>>699 そういうお前は Solarisがなんの略か意識して使ってるんだろな(OPEN Lookなき今でも)w
どうでもいい
釣られ杉
シッタカしつつOPEN LOOKをOPEN Lookと書いちゃう人ってw
あ、すみません OPEN ROOKです。日本人はL/R区別苦手です。
つまんない一発ネタ繰り返すのってサイアク〜
LEID = Legacy Equipment of Inexpensive Disks
中古SCSIでアレイか。なるほど。
SCA 80pinなドライブ割と持ってんだけどw SCA->SASなアダプターとか出んかね?
SCA->Firewireでもいいんだがw # 昔 50pinのやつあったけど。
中古だとあれー?なことにならないか心配
>>714 2.5SATA-3.5SCAはあったけど逆は見たことないな、あったとしても多分普通にsasドライブ買った方が安いかと、アダプターで一万位するし
solaris11が出たみたいだけど、OpenIndiana/Illumos的には何か影響とか動きはあるの?
719 :
名無しさん@お腹いっぱい。:2011/11/12(土) 01:20:24.40
あっちはあっち、こっちはこっち。
>>719 cddl素材とか無視するのはもったいなくね?
cddl?
winのマイドキュメントとLinuxのhome置き場に使いたいと思ってます。
アカウントはad管理してて40ユーザーぐらい。
winとLinuxどちらからも同じようにファイルアクセスしたいが、どうすればいいんでしょう?
どちらからアクセスしても同じADユーザーなら同じuidでoiに書き込まなきゃならないのは理解してるんですが。
あ、あとwinの「過去のバージョン」機能も使いたいです
solaris11 の ZFS 上で sharesmb 使えばいい
別にSol11じゃなくてOIでよくね?
krb5.confか何か書いてsharesmbすればできると思う。
そしてZFSのsnapshot取れば以前のバージョンから見えるようになる。
>>724 ZFSのsnapshotってsmbのバージョン機能にそのまま反映されるんだ…知らなかったorz
ZFSで "ゴミ箱" 機能も実現できるのかな?
727 :
名無しさん@お腹いっぱい。:2011/11/22(火) 20:44:48.85
我が家では、ZFSファイルサーバ兼dyndns更新サーバとして、sshポートフォワードサーバとして活躍中...
別にsolarisじゃなくてもいいか...
ほぅ、他のOSでZFSを動かしたいと申すか
comstarの論理ユニットに物理テープドライブを割り当てる方法が調べてもよく分からないのだけど
できるはずという話とパッチ当ててドライバ突っ込まないと駄目という話があって混乱してます。
結局素のままのOIでこれはできます?
素直にoiが入るサーバで、いっぱいDISKのるのでおすすめってなんだろ?
1Uか2Uくらいがいいんだけど。
いわゆるRAIDカードがなくって、素のDISKがいっぱい入るやつだと安心かなー。
HCLのような情報って今でもあるんだっけ?
>>731 それを買うなら、わざわざoiでなくSoraris11を選択するだろう。
ColdFusionが吐いたエラー、中国語圏になってる(笑)
>>733 バックパネル見た限りじゃM/Bは専用品じゃないのか?
SuperMicroのUIO対応マザーボードが選び放題ってとこか
737 :
733:2011/11/24(木) 20:34:57.93
>>733 このケースの向かって左側最下段にGPU入れたら熱死するかな
DL380でoiっていいかなぁ。
RAIDカードつけてDISK10個くらいzfsでみえるかなあ。
試しで買うにはちょっと高いよなぁ。
Supermicroはjaistでも使ってるね。
E16だっけ?
保守
DL380に2009.06入れようとして、SmartArray用のドライバを追加で読み込まないと
ディスクが見れなかった気がした。
ドライバが腐ってるかどうかは知らない。実用したことはないので。
SmartArrayのドライバって64bit化されてたっけ?
前に入れた事あるんだけどドライバが32bitだけしか無くて少しハマった経験がある。
ZFSとRAIDカードって相性悪くなかった?
>>744-745 これおもしろいな
EMCやその他ストレージ買おうと考えてたがこんな自作ちっくなのも有りなんだな
748 :
名無しさん@お腹いっぱい。:2011/11/27(日) 09:59:20.80
RAID5で束ねたHDDをRAIDZでさらに束ねる至福。
>>746 相性はともかく、遅くなるってことだね
「いいから生ディスク見せろやゴルァ!」で、
パーテーション切るだけで遅くなるってどこかで読んだ
>>748 それWrite Holeがおきるんじゃないか?
ハードウェアーRAID6のアレーの上に非RAIDのZFS
これが一番現状では一番ベスト
752氏の活躍を見守りたい
一番一番だけ読んだ
素敵な748の方法を見てふと思ったんだがw
IOps稼げないraidzの件、ブロックサイズの最小を512から64kくらいに引き上げたら
WriteHoleはあるがread時の分散は為される・・・ってことはある?
そこの部分は設定できんのかな。
IOps稼ぎつつ高可用性求めてraidz2とかにしたい場合、
トンデモなドライブ数が必要になってきてかなり残念な仕様だよね>zfs
高可用性を求めるなら冗長分の比率はそう下げられないのに何言ってんだ?
高可用性というのは貧民向けではないからな
中華陽性
>>756 言ってる意味が分からんw
冗長分の比率? 台数じゃなくて?
まさかraidz2よりmirror使えとか言うんじゃないだろうな
高可用性をある程度求めるなら、それに応じた冗長分も自ずと決まるということから
冗長の比率も可用性に応じた下限が存在するということ。
冗長化の仕組みとか意味とかを勉強するといい。
高可用性求めるならRAID6かRAIDZ2、ただしRAIDZ2はIO性能悪いのでRAIDZ2-0にする必要がある。
RAID6ならそこまでしなくてもIO性能高いのでドライブ数に見合った性能がほしければZFSは糞FSとしか言いようがない
RAID-4なWAFLが何か言いたそうです……
わっふるわっふる
RAID-Z3を忘れないでください…
HDD数増やせば増やすほど性能劣化するつーのは設計上の不備だよな
ハードウェアRAID6が最強ということになってしまうので今後のZFSに期待
RAIDって性能向上の為の技術じゃないんだけどな、本来は
RAID-Z*の為のハードウェアアクセラレーターってないのかしら。
どうせ何やっても最終的にはバスで律速されて終わり
だれがシーケンシャルリードの話をしろと
HDDを増やせば増やすほど故障が怖くなるのがRAID5,6なんじゃなかったっけ
どうせ単アレイに突っ込むHDD数は一定以上にはできないし比較するような話でも無いと思うんだけどなぁ
>>770 RAID5はリビルド中の高負荷でHDDが死ぬケースが少なくない
770には縁のないIOPSのおはなしかとおもわれ
ていうか増やして怖くないRAIDレベルがあるとでも
RAID1?
774 :
名無しさん@お腹いっぱい。:2011/12/02(金) 05:06:45.46
(RAID10じゃなくて)RAID1なら増やせば増やすほど安心だな!って誰もやらんわw
>>765 >HDD数増やせば増やすほど性能劣化する
そうなん?
大雑把にいうと、hole作らないために、例えば4台構成で3KB書くとすると
raidz:disk1〜3に1KB、disk4にパリティ書く
raid5:disk1に3KB書いてdisk2〜3から64KB読んでdisk4に64KBパリティ書く
でraidzつえーなんだけど、3KB読むには
raidz:disk1〜3から1KB読んでzfsチェックサム計算合ってたら完了
raid5:disk1から3KB読む
ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
主なるIO負荷であるところの細かいrandom readが同時に来る場合IO性能はraid5>>>raidzて感じ
zfsで速度要るなら2〜3way mirrorをストライプするしかない。容量と両立は無理。
ということだと思うけど聞きかじっただけなのでえろいひとよろ。raid5もなんか違うかも
高田純次かとおもた。
>>775 えろいひとじゃないけど、raidzはその動作であってるかと。
x10 のraidz2 pool作って運用してるけど、読込が書かれてるように全ドライブからの
読込するのでかなり遅い。x5 raidz のStripeのがよかったなーと今更ながらに後悔中。
速度がそんなに必要なpoolではないので、まだよかったんですが。
>>777 我慢できないレベル?
CPUのスペック’とかメモリどれくらいつんでるの?
うちの会社で現在ファイルサーバにするマシンスペックと
構成を決めてるんだが・・・
>>775 blogが何言ってるかよくわかんないのでもう少し説明加えてください。特に前編
>>778 スペック書いちゃうと色々アレだけど、まぁいいやw
CPU Xeon3460
M/B X8SIA-F
MEM ECC Reg 8GB x4
Net e1000g x2
IB ConnectX x1
HBA LSI 9211-8i
SAS Expander Intelのヤツ
HDD Seagete ST32000542AS 2T x 10 RAIDZ2
HDD HGST HDS5C303(CoolSpin) 3T x 5 RAIDZ
ZIL + L2ARC PX-128M2P x 1
OS NexentaCore 3.1.1
基本的にうちは、普段はSRP、サーバ仮運用中でiSCSIでzvolを切り出しして使ってるので、
ブロック単位のI/Oが多いんだけど、10台の方のRAIDZ2をBlockSize 32kで作ってる。
で、こっちはReadは60MB/sくらい。5台の方もBlockSize 32kでReadは200MB/s超える位。
10台の方は、iostat -xtC 1とかで見てると、Readが120MB/sくらいなんだけど、
zpool iostat -v pool名で確認すると60MB/sくらいで読んでます。
zilとl2arcをちょっとRAID使ってパフォーマンスの底上げしようかと画策中ですわ。
>>778 どうしてもraidz使おうって計画なの? 用途にもよるだろうけど、
CPUなんてC2D世代でいいしメモリも8G位でいいと思うが、
HDDだけは沢山詰める筐体にしてmirror+stripeで使えばいいと思うよ
よほど容量重視でない限り大きな問題点が無い万能構成。
compress onでレイテンシ気になるならCPU、dedupするならメモリ、と
あとはオプション要素でボトルネックパーツが決まってくるよ
>>780 stor free版で限界容量かー、とおもったらcoreなのか。syspoolは?
あとその系のHDDってRAIDに挿して相性どう?
時々Solaris系ドライバの腐敗具合と相まって酷いことになるものがorz
BlockSizeを変えるとどう影響するのかよかったら解説よろ
zvolの場合ってまた違う話なんだっけ??
OI148
xeon5110+MEM 8GB
lsi 8 port sas hba
raidz2(WD1002FAEX 4台)+zil(intel SSD 40GB)+l2arc(intel SSD 120GB)
# bonnie++ -d /tank01/ -n 0 -b -u root
Version 1.03c ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
ss02 16G 58970 88 118604 37 83418 31 53780 99 246847 30 3432 9
ss02,16G,58970,88,118604,37,83418,31,53780,99,246847,30,3432.2,9,,,,,,,,,,,,,
783 :
780:2011/12/03(土) 18:23:07.53
>>781 色々テストして行ってたら結局mirror + stripeが良いわけがよくわかりましたよ。
後々の容量拡張とかも考えたら楽だし。
大容量のzfsのストレージがmirror+stripeなのがよくわかりまわしたわ。
syspoolは書き忘れですw 普通に2.5のHDDを使ってますね。
うちはHDDが原因でこけたことはないですね。
ちなみに、RAIDCardではなくSASのHBA(mpt_sas)ですわ。
OpenSolarisじゃないけど、検証でSolaris11の環境を別で作って色々試してる
んですが、そっちだとRAIDカードのドライバ(mr_sas)が原因で止まる止まる orz
あと、止まったのってzilとかl2arcのデバイスを追加・削除したときによく刺さりましたね。
この辺は元々動作中に頻繁に追加・削除なんてしないと思うので運用中には
問題になりにくいんですが、検証中に各デバイスの有り無しのパフォーマンスチェックして
たら結構止まりました。
上記のBlockSizeはzvolのvolblocksizeの間違いです。最初は小さくすればランダムのI/O
のパフォーマンスがあがるからいっかーと思ってデフォルトの8kで作ってたんですが、上記に書いてた
ような状態になりまして、32kで作り直した直後にSRP Initiatorが死んでチェックできてないんです orz
BlockSizeは小さくすればその分ランダムの性能が上がる予定だったんですが、raidzだと
>>775氏が
書いてるような状態なのでそんなことは無く、バランスの良いvolblocksizeを探してる最中です。
>>783 syspoolはstorのインストーラが全領域mirrorで確保するので困ったなとw
RAIDカードはやっぱり運試しみたいになりますかーorz 何やってもダメなRoMBのラック鯖があったり。
でもwrite cache付いてる板はzfsでも速いんで。理屈上はSSDよりも。ZIL置けますです。
recordsizeとvolblocksize(blocksize)あたりの原理と影響度知りたいんですが
>>755に反応無いみたいだし
アライメントの話ばっかhitするし。recordsizeいじってたらnfs遅くなったんでよく分からんです。
blocksize=512でraidzが1block毎に分散してdiskに書いているなら、rreadは高速化されるんじゃないのかとか、
いやせめてntfsやらの4k単位で増やした方がIO減るしdiskレイテンシがマシになるんじゃとか、そもそも
blocksize=32kだとしてraidz下のdiskには32k単位で書かれるのかどうかとか、ソース嫁的FAQがみあたらない状態
で、チューン諦めてmirror+stripeにしたのが
>>775 尚、HDDを部分的に交換した場合、そのdiskのwriteが遅いとraidzやmirrorがwrite完了待ちするんで、
zfsもうちょっと賢くなって欲しい
>>784 syspoolの仕様はcoreでも一緒ですねw
RAIDカードは手元のLSI 9220とAdaptec ASR-6445で試してみましたけど、後者はドライバがない為論外、
LSIの方は負荷かけるとフリーズっていう状態で・・・。あとは借り物のカードが数枚あるんでそっちも試してみる
予定ですが。ARECAのカードがoi151だとサポートされてるので試してみたいものの、個人で検証してる関係
で費用が捻出できずw 10GbEオーバーのストレージとして使おうとすると、WriteCache付きのRAIDカード使っ
て、Poolもzilもl2arcもRAIDで作る方が速いんじゃないかと思ってます。
自分もrecordsizeとvolblocksize辺りの原理と影響度はよく理解できてないですね。Solaris11でrecordsize
の最大サイズが1MBまで上がってるのは、多台数での分散書込・読込のパフォーマンスアップの為ってどっかで
見たような(記憶違いならごめんなさい)。
recordsizeはあくまでその値をなるべく使うようにってものじゃないかと。
zfsの書込が可変長ストライプなんで、nfsとかだとファイル毎に変ってる気がします。
うちでzvolへのzilの書込を見てるとrecordsize 128kだと、128kでzilへは書込いってますね。
その後poolへ書き出ししてる際に個々のDiskへどの位のblocksizeで書込してるかはiostatである程度割り
出ししてます。zilへ書かれてる内容=実際に書込む内容って前提が付きますけど。
あと、うちが遅いのはシンプロビジョニングでzvol作ってるからってのもあるかもしれず。
HDDを部分的に交換は、pool,zil,l2arc全部で同様の状態なりますね。
安全側に振ってるんでそういう挙動になってるんだと思います。
とりあえず色々実験してて思ったのはボトルネックが素直に出るファイルシステムだなーと。
zfsの王道の設定以外を行うと賢くない部分がよくでてきますなw
>>785 おー、今度情報探してみます >>Solaris11でrecordsize UP
raidドライバはdiskが死んだときにarrayごと応答が無くなるものがあって憤死しました。adaptecだったか。事前検証しづらすぎ。
l2arcですがFIFOで消えてくのはちょっと・・・バックアップでfile総舐めしたら残念なことに。もう少し賢くならんものか。
うちもiostatあたりで検討付けてますがdtrace勉強しないと細かい部分は分からないなぁと。
nfsはそこかしこに高速化用cacheが有ってそれありきで動いてるんでネックが解析しづらいです。
シンプロはどうなんでしょうね。cowでsnapshotあったりするとIO的には大した増加は無さそうではあるけど
>>786 スナップショットを取ってsecondarycacheプロパティをいじれば良いんじゃ無いかな
>>787 あ、backup時に一時的にl2arcをoffにするって感じでしょうか?
snap作ってそのl2arc(+arc)をnoneにしてbackup用にreadさせればいいわけですね。
なるほど、そこまでアクティブに弄る方法は考えてませんでした。やってみます、ありがとうございます
しかもその方法ならl2arcが無効になるのはそのスナップショット経由のアクセスだけのはずだから
他のアクセスによるライブや他のスナップショットのl2arcへの影響に干渉しない、はず?
なんかすげえなZFS
791 :
名無しさん@お腹いっぱい。:2011/12/06(火) 21:44:27.81
久しぶりに覗いたらなんか伸びてる。
>>775 >ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
その例では確かにそうだとわかるんだが、実際にそんなもんなのか?
3KB「だけ」読むことなんて実際は無いわけで、ランダムにしろシーケンシャルにしろ
まとまったデータ読み出すときはRAID5もZも結局全部のHDDにアクセス(=遅いドライブ速度に律速)することになると思うんだが。
なんにせよZFSで速度稼ぎたいならzilとl2arcをSSDで盛り盛りするくらいしか思いつかんけど。
>>791 RAIDカードの制御にもよるだろうけど、
ストライプサイズ64k位で組んでる場合、
64k以下のファイルを連続で読み出すとき、
複数のHDDに分かれていれば、それぞれのHDDに
オーバーラップさせてで読み出しかけられるから、
やっぱ早いんじゃ無いか?遅い奴に足は引っ張られるが。
回転待ち分を結構隠蔽出来そうな気がする。
ZFSの場合は1つ読むにも全部のHDDから読み出さなきゃ
ならんと言うことなら、確実に差は出ると思うけど。
どんなときでも全部に読みに行くのが確定しているならそれはそれで扱いやすい
RAIDのストライプサイズはそのアレイへのアクセスときっちりかみ合ってないといけないし
パターンがばらけていると全体的に速度を出すのは難しい
どんなときでも全部に読みに行くならどのように扱うと高速化するわけ?
両側から読み出して合致確認する実装のRAID1、並に高速化しそうな要素が見当たらないんだけど。
raid5で全体的に速度を出すのは難しいがraidzならできる、というなら是非その手法を教えてくれ
そのまえに
>>793のいったい何処に raidzを高速化できる と書いてあったのか教えてくれ
あれは使い道ごとにプロファイリングしていじり倒すよりリソース突っ込むだけの方が楽だって話をしただけだぞ
見たい物だけ見て言いたいことだけ言うのは君の勝手だが有りもしない物を有るように言われても困る
raidz
1. れいどぜっと
2. れいどじー
3. れいづ
見えないものが見えているんだろうねw
れいど乙
>>794はなんだかわからんが
>>793がいう扱いやすいというのも意味が分からんがな。
zfsはブロックサイズ可変だからその理屈ではより一層速度を出すのが難しいことになっちまうよ
RAID-Zは可変ストライプ幅でデータブロックのサイズに応じて使用するディスクの本数を変更する。
すべてのドライブに必ずアクセスするという話のソースはどこだ?
かなり昔だけど、サンの日本法人の社員が、間違った解釈でZFSの概要をプレゼンした事があったよ。
ディスクの本数じゃなくて、全部のディスクに書きこむそのデータが増減するっていう解釈で。
たぶん、それソースにしてんじゃないのかな(もっとも、その元になった外人のプレゼンでは間違ってなかったんだけど…)。
あるいは、単に勘違いしてるだけなのかもしれないけど。
むしろどういうアルゴリズムで使用するディスク本数を変更するのかソースw
>>801 ブロックサイズが512〜128kで可変であるからといってwrite hole回避できるわけじゃない
どう処理されてると思ってる?
ZFSにはWrite Hole問題は存在しないわけですが?馬鹿なの?
>>803 可変ストライプ幅に関してはZFS開発者がプレゼンだか講演だかで使った図付きのスライドがある。
たぶん
>>802のプレゼンと同じ奴。
>>805 お前話について行ってないだろ・・・
write hole回避のためにzfsが取った手法を書いてみ?
結果として読み込み時どうなる?
>>804 話の流れをすっ飛ばしてるから何言っているのかさっぱり分からん。
書き込みホール問題の話なんかしてないぞ。大丈夫か?
>>801が言ってるのは(disk数-1)*512B未満の書き込み時に未使用のdiskにも書き込むかって話(たぶん)。重箱なんで伝わってないんだろ
〜512B:1diskからのreadでおk
〜1024B:2diskからのreadが必要(raid5より遅い)
〜2048B:4diskからのreadが必要(raid5よりかなり遅い)
・・・
となるので、
>>793-795 ?あたりの「どんなときでも全部に読みに行く」に例外があるぞ!と言いたいんだと思れ
>>802 よほどデータが小さいかディスク台数が多くない限りそうなるんじゃ?
sharesmb=onでWindows7に公開しているフォルダがあるんですが、
Windowsからファイルを作成した場合のデフォルトのパーミッションは
どこで制御されているのでしょうか?
ちなみにworkgroupでの運用です。
Solaris11のソースコードがリークしてたけど、クローズドな部分まで入ってたみたいだがどーなるんだろうな。
OpenIndianaのML見てると見ちゃ駄目って話になってるが(そりゃ当然だが)
SunでもできなかったメインラインのSolarisの完全ソースコード公開
流石Oracle
そこにシビれるあこがれるゥ
一足早いお年玉ってことで
「お母さーん」「見ちゃいけません!」
OIで使えてるSATA増設ボードって何がある?
OI_148で使えることになってるはずの88SE9130/88SE9128/88SE9125/88SE9120を
OI_151aは認識してくれないんだけど・・・
とりあえず2port有れば良いんだけど、やっぱSil系が無難なのかなぁ。
>>815 上げてる系は全部駄目だね。
うちでも88SE9128を試したけど駄目だった。Solaris11でも駄目。
JMicronをOIだとお勧めしたような。
SASのHBA刺すのが一番早い
と言われるは分かっていたし、他に方法も無いので、
サクッとLSI SAS9211-4i を仕入れてきた。
取りあえず、IRファームのまま使おう。
問題起こったら、ITに変えるっつー方向で。
Solaris系ってなんでユーザー名8文字以下(ほぼ)強制なの?
識別子としてそれ以上文字数必要なのかって話はともかく、個人名ベースのIDだと
普通に文字数足りないと思うんだけど、どういう運用が想定されてるんですか。
バイナリ互換を破りそうな変更には保守的だから
個人名ベースのIDとか要らんやん
yamanash
fukushim
kunitach
かっこいいじゃん
8文字制限はSunOS時代から変わってないだけだと。
Linuxなんかではとっくにとっぱわられた制限だけれど。
くにたっは
>>823 変わってないじゃなくて「変えていない」
LinuxはABI軽視で変えまくってたからな
ところでzfsでcopies=2とか3とかした場合のread性能って改善される?
もちろん状況に依るだろうけどIOps稼げるなら1つの手だなと。
>>826 それはたしか部分損傷対策だからコピーが別ディスクに作られることは保証されてなかった気がする。
>>827 なるべく別ディスクに書こうとする、位?
複数コピーされたデータ(mirrorやcopies)のどれを読みに行くかはどうやって決めてるんだろう
copyされたデータに主と副があってエラー時のみ副を読むのかな
mirrorにするとIOps上がるよって言われてるけどどうやって分散させてるのかよく分からない
実は /etc/default/passwd の PASSLENGTH=6 とか
sendmail のアレとか NFS のソレとか、色々色々
akihabar
monzenna
kabutoch
もういいかw
>>828 ミラーアレイを複数ストライプする方が上がるって意味や無いか?
その場合はアレイの数だけ分散されるわけだからraidzより良いはず。
まあ、その代わりに冗長性は比べられんけど。
>>831 いや、mirrorでもIOpsは上がるって見たことあるんだけど、なんか読み違えてたかなぁ?
ストライプにすればとりあえず上がるのは確かだと思う。
ミラーでも一応両方のディスクからだいたい半々で読んでるみたいだから、1Diskの時の性能とはまた異なった結果になるだろうとは思うんだけど、
どういう方法で振り分けてるのかは分からないんで、例えば10台でミラーとか作った場合(作れる?) readが分散されるのかどうかは分からない。
10台に分散して読みに行くなら何となくIOps上がるような気はするけどうどうなんだろう?
833 :
名無しさん@お腹いっぱい。:2011/12/28(水) 09:56:27.71
SAS の HBA とかを使って、RAID-Z を組んだ場合って、
ディスクが故障したらケースのランプが点滅したりする?
MegaRAID 9260-4i のハードウェア RAID と 9211-4i
の RAID-Z で悩んでる。
diskアクセスが多いので、dtraceで
zfs_write,zfs_read,zfs_putpage,zfs_getpageをひっかけてみたら、
/usr/lib/**/*.soあたりを中心に大量にzfs_getpageが発生していて、
不定期に50MB/s程度のdiskreadを生じているようなのですが、
そもそもzfs_getpageってどういう意味の操作になるんでしょうか?
ARCなどのキャッシュに乗らないdiskアクセスというのが謎なのですが。
KVM+ZFSが使えるOSって、今のところSmartOSくらい?
836 :
名無しさん@お腹いっぱい。:2012/01/08(日) 23:37:08.04
ADSLモデムでインターネットに繋げるにはどうしたらいいでしょう?
838 :
名無しさん@お腹いっぱい。:2012/01/10(火) 21:37:02.39
>>836 深く考えすぎずに、ADSLモデムの下にルータを繋げてその下にマシンをつけれ
とマジレスしてみた
>>834 昔ソースを読んだ通りのままなら、zfs_getpageはmmapした領域への読み込みで
呼び出されるはず。
*.soの少なくともテキスト領域はmmapされるはずなので、そこをページフォルト経由で
読み込むときにgetpageが出ると思う。
zfs_getpageの場合はreadとは違ってARCには乗らずに、普通のFSでも使う方の
キャッシュに乗せるようにしてたはず。
read/write経由でのファイルアクセスとmmap経由での参照の一貫性を維持するために、
mmapされてるファイルについては特別扱いしてた気がする。
zpoolの領域を目一杯使ってしまって残り領域が0になってしまいました。
いらないファイルを削除して空き容量を増やしたいのですが、なぜかファ
イルを消してもすぐに復活してしまい消せません。
どうすればファイルを消すか、移動出来るでしょうか?snapshotは取って
いません。
復活するだと!?
ラピュタか
pfexec touch /barusu
>>840 復活すると言うよりは、単に削除に失敗してるだけ。削除って多分Windows
からsmb経由でやってるでしょ?
Snapshotを削除して空きを作る手段も取れないし、諦めるしかないよ。
データを一旦別のデバイスに逃がしてからpoolの削除→作成を行うしかない。
まあ、これを機会にバグ放置のzfsの使用を止めるべきだと思うがね。
oracleってさまざまな技術をダメにしてきたからな
>>845 ZFSがno spaceでファイル削除出来ないバグはoracleに買われる前から存在する
んですが?
>>840 いらないファイルをddで切り詰めれば消せるようになるらしいよ。試してみて。
ttp://www.surlyjake.com/2010/01/zfs-cant-rm-no-space-left-on-device/ # df -h
Filesystem Size Used Avail Capacity Mounted on
themirror 39G 39G 0B 100% /home/jacob/themirror
# rm 3gfile
rm: 3gfile: No space left on device
# dd if=/dev/null of=3gfile
0+0 records in
0+0 records out
0 bytes transferred in 0.000046 secs (0 bytes/sec)
# rm 3gfile
>>839 ARCを通らないこともあるのか
超参考になった
素人のcrossbowに関する質問
1. etherstubってbridgeと何が違うの?
2. vnicをzoneにアサインして外部に出るときはvlanインターフェース経由にしたい。どうやったらいいかな?
2はvnicでvid指定すればいいことに気付いたけど、これvid変えるときはvnic作り直しか?
fdiskでsunディスクラベルを作成するってなんなんですか?
さくせいすると
fdisk -lってやると表示が前と変わってもどせませんでした
そのあとcfdiskをやったら元にもどりました
教えてください。
fdiskでSunディスクラベルを作成するということです。
すみませんが詳しい方のみ回答をお願いします
はい、次の方、どうぞ
次の者です。
fdiskでsunディスクラベルを作成するってなんなんですか?
さくせいすると
fdisk -lってやると表示が前と変わってもどせませんでした
そのあとcfdiskをやったら元にもどりました
教えてください。
fdiskでSunディスクラベルを作成するということです。
ラベルは今でも formatコマンドで書くんじゃないのか?
ラベルの低い質問だな
×ラベル
○レイボォ
英語は発音大事
ラベルはISOイメージと一緒にPDFで落とせるから、
無地のDISCに書いてからインクジェットプリンタで書き込むとキレイにできる
レヴォの低いレイボォの話題 … こうですかぁ?
OpenIndiana 151aを使用しています。
標準のリポジトリからSambaをインストールしてファイル共有をしたところ
WindowsXPやLinuxのSambaクライアントからは対象に対して正常にアクセスできています。
しかしWindows7(64bit)機からはOpenIndianaのホスト名こそ見えているものの
アクセスしようとすると「\\OpenIndiana にアクセスできません」とネットワークエラーに
なってしまいます。ホスト名の代わりにIPを直打ちしても同様です。
このWindows7からでも他のWindowsやLinuxのSamba Serverには正常に
アクセスできているので、OpenIndiana側に問題があるのではないかと思うのですが
何かわかりますでしょうか?
864 :
863:2012/02/11(土) 19:43:49.10
あっ、なんかいろいろ弄ってたらうまくいきました。
Windows7とか関係なしに、資格情報が誤って保持されていたようです。お騒がせしました。
OpenIndiana Build 151aで拍子抜けするくらいあっさりとKVMが動かせたんだけど
ネットワークの設定が標準だとNAT構成になってしまっています。
LinuxのTAPデバイスみたく、Solaris系でKVMゲストをブリッジ接続するにはどうすれば良いのでしょうか?
OpenIndiana ってほとんどパッケージのアップデートないけど、
セキュリティ気にする人は自前でビルドしてんの?
そんな当たり前のことを訊くとはw
SDカードに入れて使ってるんだけど、リーダー次第でパフォーマンスや起動確率が全然違うね。
高いのが速いとは限らないみたい。同じリーダーでもロットが違うと起動すらしなかったりとか。
LinuxやFreeBSDでも同じような現象はあるけど、傾向が違うようだ。
870 :
865:2012/02/15(水) 07:55:14.38
TUN/TAPデバイスをソースからコンパイルして、QEMU-KVMに認識させるところまでは出来たのですが
brctlプログラムが無いらしく、ゲストのネットワーク接続を確立するまでは出来ませんでした。
リポジトリにも登録されてなさそうなんですが、やはりbridge-utilsもソースからコンパイルするしかないでしょうか?
smartosは?
そっちのスレで聞けばいいじゃない。
ミラーもRAID-Zも使わないでZFSを構成するのはわかっている人だけだからDEと比べてとかそんな話は無意味。
ちょっと試しただけでドヤ顔のシッタカバカはともかく
WHS使いたい連中にZFSを語る無意味さを知れと
151aのCOMSTARにIntel 82574LのiSCSIで繋げている人います?
148の頃は問題なかったんですが、151aにリプレース後久しぶりに試
してみたらおかしい。
POST時には接続の表示が出て、OI側のセッションは1になるんだけど
そのまま内蔵のWin7を起動すると、Win7側のステータスは再接続中、
OIではセッション数が0になります。Win7の新規インストールでも
インストール対象のディスク一覧には列挙されません。
NICの機能ではなく、Win7のiSCSIイニシエータを使うと何の問題もなく
接続できるので、OI側の設定に誤りはないと思うのですが。
oi、アップデートはまだか?
878 :
名無しさん@お腹いっぱい。:2012/02/26(日) 11:02:44.78
おいwww
/devやら/dev-ilやら、今度は/prestableとか、なんかリポジトリが迷走気味に見えなくもないなあ……
まあ、開発版の後追いするのでなけりゃ、大して困らんけども。
/devやら/dev-ilやら、今度は/prestableとか、なんかリポジトリが迷走気味に見えなくもないなあ……
まあ、開発版の後追いするのでなけりゃ、大して困らんけども。
/devやら/dev-ilやら、今度は/prestableとか、なんかリポジトリが迷走気味に見えなくもないなあ……
まあ、開発版の後追いするのでなけりゃ、大して困らんけども。
大切だから(ry
おおおおちつけ
/dev専なのだろう
KVMでデバイスパススルーができるかどうか試してみたいんだけど
OpenindianaでPCIデバイスの識別番号ってどうやって調べればいいの?
prtconfでは全部わからない?
>>886 pfexec scanpciで多分判明したんだけど、Linuxと同じように指定しても
KVMが受け付けてくれない。OIのKVMはデバイスパススルー未サポートなのかなぁ?
# pfexec scanpci
pci bus 0x0005 cardnum 0x00 function 0x00: vendor 0x1033 device 0x0194
NEC Corporation Device unknown
# qemu-kvm -name "HOGE" -drive file=/var/lib/libvirt/images/hoge.qcow,if=virtio -m 1024 -device pci-assign,host=05:00.0
qemu-kvm: -device pci-assign,host=05:00.0: Parameter 'driver' expects a driver name
Try with argument '?' for a list.
890 :
888:2012/03/06(火) 07:50:17.40
オラクルのダウンロードサイトから12.2または12,3を落として指示に
したがってインストールしてみましたが、
# pkg install solarisstudio-123 のところで、「制約を満たす解決は
みつかりませんでした。」で失敗しました。
Solaris11のx86のpkgを選択したのが間違ったのかな。
このサイトのバイナリはSolaris11または10のバイナリなので、OIとは
互換性がないように思うのですが、根本が分かっていないので、。
OpenIndiana-discuss listがあり、そこでは12.2を使っているようにあり
ました。メーリングリスト参加してみます。
ご指導ありがとうございました。
SPARC版ってないの?
892 :
名無しさん@お腹いっぱい。:2012/03/10(土) 09:37:43.79
マシンが1台空いたので(AMD E-350)に、151aを入れてみた。
コンソールの表示が変だ。しょっちゅうカレントディレクトリの表示が
ずれて、或いは表示が重なってオカシクなる。
solaris系は、ちょっと古めのハードウェアが一番なのかな?
でもsolaris11は正常だったんで、次のバージョンで治るか
マシンを選ぶときは HCLの情報にしたがうか、そうでなければ自己責任で検証するか、
自分でドライバ等を開発するかってことでしょう。
HCLにあるハードウェアで不具合がでたなら報告しないと、誰か言わないと治らんと思う。
仕事で使うなら枯れたハードウェアか、実績のあるバージョンのSolarisを選ぶのもありかと。
余談だが SPARC系は提供ベンダーが限られてることもあってか比較的安定してる希ガス。
SolarisはWindowsを端末にしてリモートで使う用途でしかもう要らないわ
ネットワークだけちゃんと動いてくれればいい
コンソールがずれて困るってこともない
>>893, 894
とりあえず、動くか試してみたかったんだ。
デスクトップでちょこちょこ動かすのが新鮮で楽しいんだ。
この手のOSは、ほとんどコンソールでしか動かさないから。
>>880 >>890 手もとの環境:
$ uname -a
SunOS solaris-vmplayer 5.11 snv_151a i86pc i386 i86pc Solaris
ここにolracle/sun studioの最新版をいれようとして同じようにハマった。
どうもsolaris11`x86には pkgaddとかでは入らないらしい(という旨の
バグ報告とコメントもみつけた。)
なので、tarファイルを落としてインストールする方法しかないみたい。
展開しておいたところのbin がPATHに入るようにして
やれば使えるようです。
なお、solaris11のliveCDインストールでは
次の必須なパッケージのうち入らないものがあり(たとえばstdio.hがないので
気付いた。)次を参考。
上記のページ参考にしてパッケージをいれると使えるようになりました。
$ cc -V
cc: Sun C 5.12 SunOS_i386 2011/11/16
illumosと直接関係ないけど、solaris11でもパッケージインストールはできないので
なにか参考になれば。
897 :
896:2012/03/17(土) 02:35:35.17
898 :
888:2012/03/18(日) 09:37:17.72
899 :
888:2012/03/18(日) 09:53:30.07
>>897 Solaris 11についてはご指摘のとおり12.3が使えるようですが、OpenIndianaは
不可ですね。別方をinfinibandのスレッドで教えていただいて、OpenIndianaに
sun studio 12.1を得ることができました。
素インストールではgcc,autoconf,automakeなどないので、すこし面倒に感じます。
開発環境をグループで一括導入できれば敷居は低くなると思うのです。
pkg install slim_install; svcadm enable gdm
な感じでできれば楽ですね。ないですかね。
900 :
名無しさん@お腹いっぱい。:2012/03/18(日) 16:32:03.56
個人でZFSファイルサーバとして使っている人いないのかね〜
FreeBSDの方が気楽でいいのかなぁ
いるだろ
902 :
名無しさん@お腹いっぱい。:2012/03/18(日) 16:49:16.53
個人でOpenIndiana使っていると情報少なすぎるのが困るのよ
ZFSに障害起きたとき、復旧できるか心配というか、障害出てることすら見逃しそう。
個人でOpenIndianaでInfiniBandのストレージ作ってるけど、そんなに情報少ないかな?
国内で探すと殆ど無いけど、海外だと結構色々あると思うんだけど。
> 障害出てることすら見逃しそう。
zpool status を30分に1回自動実行し、前回との差が存在する時に、メール送るようにしてる。
smtp-nofityで障害時にメールを送ればいいんでないの?
>>900 自作板あたりでステマしようず
NexentaStorとかOI&napp-itならインスコも運用もとっつきやすいし
無数のパーツの組み合わせと圧倒的回数の試行錯誤がZFSを更なる高みへと・・・
FreeNASよりはNexentaの方が安定してると思うが、元がSolarisだけあってドライバ類が弱い。
サーバと付いてないPCで動かすならFreeNASの方がいいかもしれん。
ZFS周りの安定度や性能ならどう転んでもNexentaの方が上。
機能面ではいろいろ追加しまくってるFreeNASが上だがエラー通知程度ならNexentaにも当然付いてますよ。
OIは・・・・・FreeNASユーザにお勧めできるもんじゃないわなぁ
>>907 FreeNASのZFS、非力なPCで組むと大変な事になるからねぇ・・・。
AtomD525で、
CPUリソース喰いまくり -> メモリー喰いまくり -> カーネルパニックでZFSごと死亡
ってのを喰らった事がある@FreeNAS8.0
>>907 NexentaもFreeNASも両方使ってるけど、安定度はどっちも同じ。普通に使える。
別にNexentaが一際安定してるって事は無い。
ZFSの安定度もどっちも変わらんよ。個人や中小企業がちょっとしたファイル
サーバを立てたいっていう用途なら導入の手軽さ、安定性から言ってもFreeNAS
が有利だと思う。
逆に言えば、それ以上のことを求めるならNexentaが良いけど、Nexentaじゃな
きゃ駄目って言うような局面があんまり無い。
iSCSI のターゲットには出来ないんじゃなかったっけ?
>>910 FreeNASが?
FreeNAS(というかFreeBSD)は日本人の開発者が作ったiscsi targetが存在するよ。
net/istgt かな?
でも、普通に zfs set sharescsi=on 出来ないとねぇ
それも、カーネル側の都合とか言われるとさ
今時、sharescsi使ってるような奴いんの?w
普通はCOMSTARだろJK
ZFSなファイル鯖が欲しくてOpenIndianaで立ててみようと
USBメモリ(&CDR)用意して起動!
WARNING: No randomness provider enabled for /dev/random.
Use cryptoadm(1M) to enable a provider.
というエラーが起動直後出て進まず、あちこちググってみると
/dev/random や cryptoadm は暗号化や暗号鍵の関係と判明
「インストールでそんなの要求されるとはよく分からんが高度だな」
と思い、対策を調べてみると
ttps://www.illumos.org/issues/995 という感じらしく、うちのマザーではACPIまわりをあまり設定できず駄目でした
ハード対応状況やバグまわりの自己対策など、厳しい道のりだとは
思ってましたがこれほどとは
>>900 ドライバに尽きるなぁ。
個人での鯖立てとなると構成がデスクトップPCに近くなるから
どうしてもLANとかHBA周りで動かない・遅いとか出がち。
OOBで動くような構成で組めばいいんだろうけど、やっぱ個人鯖だと旧PCの流用だったりするから
新規に動くパーツ買うのも気が引けるんだよね。
動いてしまえば(iSCSI使うなら)COMSTAR覚えるくらいで、あとはほとんどSolarisなのを意識せず使えるんだけどね。
ZFS鯖立てようかと思ってるんだがOpenIndianaとillumianとEONどれがいい?
napp-itから管理しようと思ってるんでX環境は無くてもいいんだけど
将来的にInfiniBandとか導入しようかと思ってるんでドライバ周り考えたら
OpenIndianaのがいいのかなー
どれがいい?って聞き方はなんか感じ悪いな
どれがオススメか聞きたい
>>917 InfiniBandでOpenSM動かすならOpenIndianaかな。
個人的な感想ってイメージだけど、OpenSM動かす予定ないなら、
・EON
USBメモリで運用可能。必要最低限のものしか入ってない
・illumian
Debianなれてる人ならすっげー楽
OpenIndianaのIPSで提供されてるものはillumianのaptでも提供されてるの?
illumosのuserland?にはOpenSMとかも含めようとしてるっぽいんから
どっちにもそのうち流れてくるって事でどっち選んでも問題無し?
OpenIndianaもillumianも開発者がかぶってるっぽいんだけど、この辺がよくわからないです。
>>919 ちょっとillumian試してみた。apt-cache search opensmでバイナリは
ないみたい。なのでOIと同様にbuildしないといかんのかな。
ぐぐった感じopen-fabricsにopensmが含まれてるけどまだバイナリはないのかな?
gitにパッチは上がってるっぽいが
923 :
名無しさん@お腹いっぱい。:2012/04/05(木) 23:55:27.49
eon-1.0b-151-32-cifs-min.isoをダウンロード/CD-Rに焼いて、
EONを8GB USBメモリにインストールしようとしてますが、
CDブートしてrootログオンした後、echo| formatとしてもHDDが見えてこないんですが、
対応していないハードウェアと考えた方がいいんでしょうか?
Solarisの作法がまだよく分かっていないところもあるので、こうやると見えるんじゃないとかありましたら
教えてください。
一応、
https://sites.google.com/site/eonstorage/beginを参考にして、
"Testing the hardware compatibility (optional but recommended)"というところで引っかかってます。
毎度、再起動するとZFSの特定のディスクがUNAVAILでcannot openになってしまうのだけど
OFFLINE&ONLINEもしくはscrubを実行するとあっさり認識されてパリティーエラーも出ないってのはいったい何が原因なんだろ?
そりゃハードウェアの問題だろ
>>923 Solaris初心者だけど、oiやBSDでUSBメモリの相性があった
試しに違うUSBメモリ使ってみるとか、一旦HDDに入れて
USBメモリにDDしてみるとかどうだろう?
時々、スピンアップが遅いHDDってのが存在する
電源が貧弱だとスピンアップ出来なかったりもする
929 :
名無しさん@お腹いっぱい。:2012/04/08(日) 04:16:19.86
>>928 oi151aのインストールCDで起動できてgpartdでHDDが認識されてました。
でも、USBメモリから起動したEONだと、hd、format -e何れもHDD見えず、
iostat -Eすると、
cmdk0: Soft Errors: 0 Hard Errors: 0 Transport Errors: 0
Model: WDC WD20EARX-22 Revision: Serial No:以下略
と出るので、HDDが中途半端(?)に認識されている様子です。
他のHDDは外してあります。
ちなみにPCは、HP ProLiant ML115 G1(dmesgによるとAthlon64 3500+)です。
ML110に比べてML115はトラブルが多いような気がする
G1て初代じゃないかw
そのoi151aと同じb151ベースなら認識しそうだけど
普通のISO焼いても駄目?
oi148の時、俺はUSBメモリからHDDにインストールしたかったのだが
USBへの書き込みが1回目は常に失敗するので、2回書き込まないとダメだった。
不安だから結局CDドライブつけてインストールした。
932 :
929:2012/04/09(月) 02:50:15.14
ML115の動作確認で入れたFreeNASがあんまりにも簡単で
このまま転んじゃいそう...
でも、oiのCIFSサービスよりも転送速度が遅い気がするんだよな
oi148はML150G3のオンボードLAN(BCM)を認識しなかったがoi151aは認識した。
935 :
929:2012/04/09(月) 23:51:22.44
oi151aのブータブルUSBメモリを作るにあたって、
dd for windows(www.si-linux.co.jp/wiki/silinux/index.php?DDforWindows)と
OpenSolaris LiveUSB creater(chonan.blog.pid0.org/2009/04/opensolaris-live-usb-creator-windowsnet.html)
で作ってたんだが、
ブータブルUSBイメージoi-dev-151a-x86.usbを、
dd for windowsで書き込むと起動できなくて、
OpenSolaris LiveUSB createrで書き込むと起動できるってのは、
HP ML115側の問題なのかな。
OpenSolaris LiveUSB createrで作れば問題無くUSBメモリブートできるのが分かったんで
あまり気にしていないんだが、
OsolLiveUSB.exeと、DDWin.exeでやってることって何が違うんだろうね。
いいこというねぇ
938 :
名無しさん@お腹いっぱい。:2012/04/15(日) 16:38:42.89
SolarisでNTFSをマウントする方法を探していて、FSWfsmisc.tar.gzというものを用意すればいいらしいのですが、
このファイルはどこから落とせるんでしょうか
tps://blogs.oracle.com/yappri/entry/solaris10_ntfs_mount
tps://blogs.oracle.com/mandalika/entry/mounting_windows_ntfs_on_open
辺りを参考にしています
普通にググればいくらでも出てくるよ?
>>938 ASntfs-3g-2011.4.12 という手もある
941 :
名無しさん@お腹いっぱい。:2012/04/17(火) 22:53:50.53
ふと思うところがあって、zpool statusって打ってみたら、
pool: tank
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see:
http://www.sun.com/msg/ZFS-8000-2Q scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c5t1d0p1 ONLINE 0 0 0
c6t0d0p1 UNAVAIL 0 0 0 cannot open
なんて出たので、
tp://www.sun.com/msg/ZFS-8000-2Q
に飛んでみたら、oracleのログインページに飛んだんですけど、
これってどうすれば?
アカウントとって内容を読んでから対処したほうがいいですかね。
ちなみにOpenIndiana 151aです。
もちろん読んだ方が良いけど、そんなことしなくてもメッセージに書いてあるじゃん
>>941 c6t0d0p1 UNAVAIL 0 0 0 cannot open
LiveCDから起動したらオンボbcm57781のドライバが無く、ネット不通
パッケージマネージャーで見ると57xxドライバは入っているようですが
これでは駄目な様子
broadcomのサイトにLinux用ドライバはあるのですが、
これをソースを修正&コンパイルすれば使えるようになるのでしょうか?
試しにUSBメモリで持ってきてmakeしましたが、ソース最初の
KVER = ($shell uname -r)
でこけました(Linuxのカーネルバージョン判別?)
バグで148から151にウプデートできねーw
/var/pkg/配下から57xxのmanifest開いてみたら2009年・・・
alias追記したらなんとかならないもんでしょうか?
犬ドライバのコンパイル・・・ひどい釣りネタだw
主に安NIC対応でリリースしたヤツだっけ?
951 :
名無しさん@お腹いっぱい。:2012/04/25(水) 02:21:43.18
OmniOSの特徴って?
カーチャンOS
OmniOSのサイト見るとデータセンター向けのクラウドプラットホームって書いてるね
ZFSとCrossbowとZoneとDTraceが使えるwktk仕様かと
それって他のディストリビューションでも使えるだろ
957 :
941:2012/04/30(月) 13:08:12.27
報告が遅れましたが、
>>941の件は解決しました。
マザボ側で使っていない(と思い込んでいた)SATAケーブルを一本抜いてたんですが、
それが今回UnavailになったHDDでした。
起動時にビープ音でも鳴らしてくれれば
直ぐに気づいたのになぁ、なんて思いましたがとりあえず原因がわかって治ったのでよしとします
OpenIndiana 151aに3TBのHDD(c6t1d0)をSATA接続で取り付けて、formatコマンド->fdiskを実行したところ、
>format> fdisk
>No fdisk table exists. The default partition for the disk is:
>
> a 100% "SOLARIS System" partition
>
>Type "y" to accept the default partition, otherwise type "n" to edit the
> partition table.
>WARNING: Disk is larger than 2TB. Solaris partition will be limited to 2 TB.
これって、"n"押してからどうすればいいんでしょ?
>>960 ZFSにしようぜ そしたらfdiskいらない
>>961 ZFSにする下準備としてパーティション分けしてたんですけど、必要ないんですかね
>>962 そもそも「パーティション分け」が何を意味するかを理解しよう。
>>962 ディスク全体をZFSで使うなら必要ない
zpool create hogehoge c6t1d0
でGPT作ってくれる
>>964 zpool create hogehoge c6t1d0
したあと、format->fdiskでパーティション情報を見てみたんですが、
>format> fdisk
> Total disk size is 60800 cylinders
> Cylinder size is 96390 (512 byte) blocks
>
> Cylinders
> Partition Status Type Start End Length %
> ========= ====== ============ ===== === ====== ===
> 1 EFI 0 60799 60800 100
>
となってまして、"Type: EFI"らしいんですが、これがGPT全体という理解であってますか?
お前がその辺気にしても、どうせ理解できないんだから、気にするな
>>965 それでOKです
parted -l で見るといいかも
ディスク全体を使うのってほぼ同容量の別モデルをもってきたときに泣く
可能性を思うと躊躇してしまう
>>968 最近はどこも同じブロック数だし
ミラーやRAIDZにしなきゃ関係ないんじゃない?
970 :
965:2012/05/03(木) 22:25:19.45
結局c6t1d0を丸ごとpoolにして、
tp://docs.oracle.com/cd/E26924_01/html/E25824/gkkud.html#scrolltoc
を参考にシャドウマイグレーションでファイルシステムの内容を移行しようとしたんですが、
もしかして、OpenIndianaではできない?
971 :
965:2012/05/03(木) 23:30:26.39
OpenIndianaでシャドウマイグレーションは無理そうですね。
ありがとうございました
きたか…!!
( ゚д゚ ) ガタッ
.r ヾ
__|_| / ̄ ̄ ̄/_
\/ /
 ̄ ̄ ̄
>>973 シャドウマイグレーションできるんですか?
そのまま待っても何も良い事は無いと思うぞ
>>976 そうですか。。
時系列で書くとこんな感じです。
1. 4台構成 Raid-Z + スペア1台 のうち、1台が外れてスペアの利用が始まる。この時点でデータエラーなし
2. 3時間後ぐらいにもう1台でエラー発生。データエラーが発生する。
3. なんかおかしいので zpool status を実行。もう1台でエラーが発生する事を確認。この時点でデータエラーあり
(まだ1のリカバリは終わってない)
4. 状況確認のため、何度かzpool status を実行していたが、コマンドが返ってこなくなってしまった。
5. リブートを試みる。しかしシャットダウン最中に止まってしまい、今の状態
前にもリカバリするはめになったけど、その時はデータエラーは無く事なきを得ました。
その時、リカバリに4日ぐらい掛かったので、ひょっとしたらデータエラーが発生しつつも今もリカバリを
実行しているんじゃないかな、なんても思ってはいるのですが。
SSHログインは今できるのですが、zpool status はやはり止まってしまいます。
スペア持てる状況なら、RAIDZ2 の方が冗長性高いだろってのは置いといて、
まぁ、もう一日二日待ってみれば?
>>978 ですかねぇ。もう少しだけ待ってみます。
みなさん、ありがとうございます。
他にも、何か思い付いた事とかあったら教えて下さい。
状況は後ほど報告します。
>>977 rootでzpool statusするとHDDにチェックが入るから重くなる
HDDがエラーセクタへのアクセスで時間かかってる場合は待たされる
単にresilverの進行状況やエラーの発生状況だけを確認するなら
ユーザでzpool statusするのがいいよ
>>980 >rootでzpool statusするとHDDにチェックが入るから重くなる
>ユーザでzpool statusするのがいいよ
そうなんですか、それは勉強になりました。
実は今、zpool status (uid=root)のプロセスが30個ぐらい溜まってしまっているんです。
なぜこんな事になったかと言うと、30分に一度、cronで自動実行して問題があればアラートを
送っていたんですが、今回の障害で終わらないまま溜まってしまったようなんです。
気が付いてすぐcron を止めたのですが、今あるプロセスはkill -9 でも終了できませんでした。
Linuxで言う所の、disk sleep 状態でしょうか。
ひょっとしたら、これらのプロセスを終了できればシャットダウン処理に入れるのでしょうか。
preap
>>981 その通りだと思います
IO TIMEOUTが60秒になっているので(デフォルト)
エラーでディスクからの応答待ちがかなり長いです
それがどんどん増えてしまってるんでしょう
なのでSIGKILLも効きません
>>982 preapの提案、どうもです。試しに1個やってみましたが、
# preap 9560
preap: process not defunct: 9560
#
で、駄目でした。
>>983 そうですか。"zpool status" をkill するのは無理そうなんで、
あと1日だけ様子を見て、明日の夕方ごろには電源OFFでリブートしてみます。
やっぱりリブートは明日です。往生際悪いけど、あと1日だけ待ちです
986 :
975:2012/05/18(金) 12:48:56.47
みなさん、お世話になっています。 m_(__)m
1日待った甲斐があり、少し変化があったのでお知らせします。
大量に溜まっていた zpool status のプロセスが、さっき確認したら
3個だけになっていました。
もう少し様子を見てみたいと思います。
ほす