nfsに関する話題を扱うスレ
/' ! ━━┓┃┃
-‐'―ニ二二二二ニ>ヽ、 ┃ ━━━━━━━━
ァ /,,ィ=-;;,,, , ,,_ ト-、 ) ┃ ┃┃┃
' Y ー==j 〈,,二,゙ ! ) 。 ┛
ゝ. {、 - ,. ヾ "^ } } ゚ 。
) ,. ‘-,,' ≦ 三
ゞ, ∧ヾ ゝ'゚ ≦ 三 ゚。 ゚
'=-/ ヽ゚ 。≧ 三 ==-
/ |ヽ \-ァ, ≧=- 。
! \ イレ,、 >三 。゚ ・ ゚
| >≦`Vヾ ヾ ≧
〉 ,く 。゚ /。・イハ 、、 `ミ 。 ゚ 。 ・
nfsの利用は危険です。
玄箱をNFSサーバとして使ってる。
NFSで接続したディレクトリをsambaで公開することはできないのでしょうか?
OSによるんじゃね
NFSマウントしたディレクトリをSambaで公開することなら、
OS関係なしにできる。
同じNFSディレクトリを、複数のホストでSamba公開すると
ファイルのロックが問題になるので、その点だけ注意すればいいだけ。
nfsdのCPU使用率が異常に高いのですが、考えられる原因を教えてください
マシンのスペックがしょぼい。
NFSマンセー
11 :
名無しさん@お腹いっぱい。:2006/04/23(日) 16:17:54
mount -t nfs 192.168.0.18:/usr/pkgsrc /usr/pkgsrc
とやったら
mount_nfs: rpcbind to nfs on server: RPC: Port mapper failure - RPC: Timed out
といわれるんですけど、何が原因かわかりますかね?
サーバ側のexportsには
/usr/pkgsrc -maproot=root:wheel 192.168.0.0/24
を記述しています
>>11 それは、NFS鯖でportmapまたはrpcbindが起動していない時の症状。
rpcinfo -p 192.168.0.18
の結果貼ってみろ。
13 :
11:2006/04/23(日) 16:27:34
>>12 ありがとうございます
rpcinfo -p 192.168.0.18
rpcinfo: can't contact portmapper: RPC: Remote system error - Connection refused
になります。
すいませんがよろしくお願いいたします
14 :
11:2006/04/23(日) 16:45:31
うぅーーむ・・。
mountd
rpcbind
nfsd -tun 4
を起動しなおしたら
mount -t nfs 192.168.0.18:/usr/pkgsrc /usr/pkgsrc
mount_nfs: can't access /usr/pkgsrc: Permission denied
こうなりました・・。
どこのパーミッションを直したらいいんですかね・・・。 orz
貼れっていったんだから最後まで面倒見てやれよ
>>14 rpcbindの問題は解決したようだね。
次の問題としては、NFS鯖側から見て、クライアントのIPアドレスが
逆引き出来てなくてPermission deniedになってる可能性がある。
あと、クライアントのOSにもよるが、
ソースポートがroot特権ポート以外からのmount要求になってる場合は、
NFS鯖側でinsecureまたはmountdに-nオプションとか、OSによって違うが
そういう設定が必要。
>>14 LinuxでNFSやっているかも?と仮定してちょっとフォロー
1.NFS鯖でexportfs -a を行っているかチェック。
2.シンボリックリンクが存在し、リンク先が/etc/exports に記述されていない。
>>17 >>14 ではrpcbindって言ってるからLinuxじゃないね。(Linuxはportmap)
一般に、返事がない場合はすでに解決済みとみなして良い。
何日も前の、しかも不備な質問に、わざわざエスパーして回答してやるこたぁない。
20 :
名無しさん@お腹いっぱい。:2006/05/05(金) 15:43:58
NFSのshareオプションでanon=0と言う物がありますがroot=ホスト名との違いが今一つ
分かりません。
と言うのは、匿名ユーザからのNFSマウントと言う場面を実機で作り事が出来ないで
いるからです。UNIX機では、どんなUIDを用いても匿名ユーザ扱いされないように見え
ます。
anon=0を使用した場合、匿名ユーザからroot権限でmountするにはどの様にすれば良い
のでしょうか?
>>20 それ、完全に勘違いしてるね。
NFSでは、セキュリティ上、rootで直接マウントできないように、
rootのNFSクライアントを匿名ユーザに置き換える。
で、この置換えを辞めてrootのままマウントさせるオプションが、
anon=0(匿名ユーザのUIDを0にするという意味)や
root=ホスト名、なわけ、root=ホスト名、の方が、
特定のホストにのみ許可できるから安全。
で、質問の、「匿名ユーザからroot権限でmountするには」
ということは普通はできない。UIDをマップするようなオプションを使えば
できるOSもあるが、一般的ではないし、そもそもそういうことをするのは危険。
22 :
名無しさん@お腹いっぱい。:2006/05/05(金) 18:55:22
>>21 anon=0,rw=ホスト名 とroot=ホスト名は セキュリティ上、等価と考えて良いのですか?
24 :
名無しさん@お腹いっぱい。:2006/05/05(金) 20:41:35
>root=ホスト名、の方が、特定のホストにのみ許可できるから安全
anon=0でも、アクセス可能なホストを制限すればセキュリティ的に等価になるかなと
思ったのですが。
気になっているのはroot=ホスト名ではなく、anon=0を使用した場合のセキュリティ上の
リスクなんです。
25 :
名無しさん@お腹いっぱい。:2006/06/13(火) 22:11:03
NFSv4 って使ってる人いる? もしいたら、OS とかストレージ名とか
使用感とか漠然とだけど聞きたいな。
26 :
名無しさん@お腹いっぱい。:2006/08/07(月) 13:57:02
すんません、NFSのファイルのロックに関して教えてください。
サーバーがexportしている1つのディレクトリに対して、
2台のnfsクライアント(A,B)がマウントしています。
その2台のマシンから、exportされているディレクトリ以下にある、
ファイルに対してflockをかけるのですが、
Aでflockをした後、Bでもflockできてしまいます。
NFSで1つのファイルに対する排他制御って、flockでは
できないのでしょうか?それとも、NFSの設定がおかしいのでしょうか?
よろしくお願いします。
>>26 NFSv3以前では無理と思うべき。NLMとかlockdとかあるけど、
あんなもんじゃ複数クライアントからのまともなロックはできん。
>>26 NFSのロックはflock()じゃできない。
lockf()を使うこと。(またはfcntl())
常識中の常識。
あと、動いてるとは思うけど、lockf()が動作するには
(rpc.)lockdと、(rpc.)statd相当のデーモンが必要。
詳細はOSによって多少違うが。
fcntlでも複数クライアントはできないんじゃない?
>>29 lockf()は実はフロントエンドであって、
内部でfcntl()を呼んでるわけだが。
lockf()の関数は互換性のため残ってるだけ。
なので、fcntl()で当然排他制御ができる。
なお、NFSはv2であってもOKだよ。
31 :
29:2006/08/07(月) 15:37:30
>>30 ん? なんか論点が食い違っているような・・・
flock, lockf, fcntlとNFSの関係に関しては漏れも理解しているつもり。
fcntlを使えばロックができることも知っているし、経験的にもそれが
出来てはいるんだけど、ただ、複数のクライアントのときにうまく
行かなかったのよね。サーバとクライアントが仕様通りの実装に
なっていれば、ちゃんとfcntlでロックできるもんなの?
2台のクライアントからすさまじく高速にロックルーチンを回す試験を
してて、たまにファイルがぶっ壊れてましたけどw
皆様レスありがとう。
>>30 了解です。
で、fcntlでロックをしようとすると、今度は
「No locks available」のエラーになっちゃう・・・
ローカルディレクトリで、同じプログラムを動作させると、
ちゃんとロックするんですが。
教えてくんですみませんが、原因などご存知でしたら教えてください。
>>32 >>28 が書いてるとおり、lockd statdを起動していないからだと思われ。
>>33 rpc.statdと、lockdはクライアント側、サーバー側で、
rpcinfo -p
で、statusとnlockmgrもいます。
クライアント側から、rpcinfo -p サーバーIPで、
サーバー側も見れます。
なにか設定がおかしいんでしょうかね・・・?
>>34 fcntl()の、引数指定間違えてない?
一度 lockf()使って呼んでみれ。
"No locks available"って、errnoに ENOLCKがセットされた時のエラーで、
ロックが多過ぎてロックテーブルがオーバーフローした状態なわけだが。
テストプログラム起動し過ぎてるとかない?
皆様、何度もご協力ありがとうございます。
>>35 実は、もともとの問題は、PHPのセッションファイルは、NFSマウントしたディレクトリに置いて、Load balancer配下のサーバーで
共有できるか?というところだったりします。んで、PHP4のセッションファイルを作成しているところのlソースを参照して、
そのロックの手法を抜き出して、そのままテストプログラムにしてます。
テストプログラムは以下のような感じで、
呼び出し側は、php_flock(fp, LOCK_EX)で、
関数は↓
int php_flock(int fd, int operation) {
struct flock flck;
int ret;
flck.l_start = flck.l_len = 0;
flck.l_whence = SEEK_SET;
if (operation & LOCK_SH)
flck.l_type = F_RDLCK;
else if (operation & LOCK_EX)
flck.l_type = F_WRLCK;
else if (operation & LOCK_UN)
flck.l_type = F_UNLCK;
else {
errno = EINVAL;
return -1;
}
ret = fcntl(fd, operation & LOCK_NB ? F_SETLK : F_SETLKW, &flck);
・・・・
}
です。
>>36 テストプログラムは、数多く起動はしていないです。テストプログラムをコンパイルした、
a.outを手動で起動しているだけなので。
lockd/statdが使用してる(RPC登録してる)ポートを
ファイアーウォールとかで閉じてるんじゃない?
ポート番号は変化するので大変だけど。
rpcinfo -pだと、111ポートだけが開いてればstatus/nlockmgrが
表示されるけど、それだけだと確認にならない。
39 :
名無しさん@お腹いっぱい。:2006/08/19(土) 12:20:18
最近出来たスレなんですね。
お詳しい方がいらっしゃるので、私もこれから勉強していきたいと思います。
私はあまりNFSに詳しくないのですが、
以前からNFSROOT好きです。
Solaris/x86をNFSROOT化したり、
「Fedora Core Linux ディスクレス化キット」を開発したりしています。
昨日ホームページを開設しまして、「Fedora Core Linux ディスクレス化キット」
を公開しました。
http://wikiwiki.jp/disklessfun/?disklessfc Fedora Core をカーネルリコンパイルせずにNFSROOT化するキットです。
また、
http://dl-x86solaris.sourceforge.jp/では Solaris/x86をNFSROOTでインストールしたり運用するキットを開発・公開しています。
非常にマイナーな世界の話ですが、もし興味があればいらして下さい。
>>37 セッション管理をmysqlとかDBで行う様にした方が良いんじゃない?
確かPHPにそういう仕組みを実現する何かがあったと思うんだが。
外してたらゴメン。
>>25 遅レスだけど使ってるよ
鯖、蔵ともにFedora Rawhide、ハードは普通のPCだけど?
nfs4のidmapdで、uidの異なるマシン間でuidをマップする方法をご存じの方、教えていただけませんか?
44 :
名無しさん@お腹いっぱい。:2006/10/22(日) 22:29:03
今、NFSが一番安心して使えるOSはどれですか?
Solaris.
サーバーとクライアントを同じプラットフォームで統一して、
サーバー・クライアント間にFirewallを設置せず、
ハードウェア障害のケースを想定しないで
NFSv3を使うことにすれば、
何のOSでもたいていOK、多分ね
全部逆と想定したら、まず神頼みが必要かも
>>46 >何のOSでもたいていOK
ダウト。
FreeBSDでは未だにクライアント間でのNFSロックが効かない。
49 :
名無しさん@お腹いっぱい。:2006/10/25(水) 17:47:17
>>47 > FreeBSDでは未だにクライアント間でのNFSロックが効かない。
本当?
Yes
rpc_lockd_enable="YES"
rpc_statd_enable="YES"
でも?
52 :
名無しさん@お腹いっぱい。:2006/10/28(土) 11:33:21
>>51 FreeBSD の rpc.lockdは動作がおかしい。
FreeBSD自身の lockf()は、flock()として動作してるw
よって、全然駄目駄目。
試しに、複数のFreeBSDクライアントから lock書ける実験をしてみるといい。
lock無視してファイル壊すから。
今年の5月か6月あたりに直ったんじゃなかったっけ。
>>53 rpc.lockdの件はともかく、
flock/lockfの件も直ったの?
直ったかどうかというより、これってFreeBSDの仕様の問題だから、
今までflockの動作をしていたのを急にlockfの動作にすると
別の部分で不具合が出るから、直しようがないと思うんだが、、
>>54 いつの時代の話?
lockf(3) は内部で fcntl(2) を呼ぶようになっていますが。flock(2) ではなく。
NFS over SSHのやり方を教えてください。
58 :
名無しさん@お腹いっぱい。:2006/11/12(日) 22:45:01
結局ステートレスじゃないNFSに替わるネットワークを透過的に使えるファイルシステムなんてものは無いということなのか?
つ SMB
60 :
名無しさん@お腹いっぱい。:2006/11/13(月) 09:37:56
mjsk
61 :
名無しさん@お腹いっぱい。:2006/11/17(金) 15:36:58
NFSv4の立場は・・・・・・
FreeBSDの NFSv4対応はいつになりますか? Linuxでさえ対応してるのに、、
NFSって遠隔地、例えば東京大阪間のようなものでもグローバルIPさえあればつなぐことができるのでしょうか?
電子メールって遠隔地、例えば東京大阪間のようなものでもグローバルIPさえあれば送ることができるのでしょうか?
と聞いてるのと同じ。
同じかなー
なんか怖いな
20世紀の頃、某ISPのWebサーバの
ユーザ領域をNFSマウントしちゃえたことあるよ
28.8bpsで
68 :
名無しさん@お腹いっぱい。:2006/11/18(土) 06:04:12
電子メールによる比喩はちがう気がする
遠隔地でも出来るできないで言えば出来る
実使用上のいろいろな問題があるだろうけど
素の TCPでの接続か、RPCでポート番号が一定しない接続かの違いがあるだけで
IPレベルでは同じ事。NFSはポート番号が変わるため、ファイアーウォールで
NFSだけをうまく許可する方法が難しいという点は確かに違うが、、
いやほら電子メールならUUCPとかでも送れたりするじゃん?
そういうことか。じゃあ FTPでたとえた方がいいのかな。
RPCだって、本来はTCP/IP以外のプロトコルスタック上にも実装できるように
設計されたものなんだが、、実際はTCP/IP版以外は使われていないけど、、
>>67 めちゃくちゃ遅いじゃん。TCPパケットヘッダ送るだけで
2秒以上掛かるのか。
NFSのベンチ結果やlinux iSCSI Targetとの比較結果をまとめているサイトってありませんか?
NFS v4 VS iSCSI
でどっちが早いのか・・・
比較にならないものを比較しようとしてませんか?
私の勘違いでしょうか
AoEの圧勝
AppleShare over Ethernet?
Age of ...
79 :
74:2006/11/21(火) 23:42:49
>75
難しいかな・・・
XENでNFSで共有するか
OCFS+iSCSIで共有するかでどっちが良いか検討したかったのですけど
>76
文字足らずなのに理解して頂けたようで感謝です。
ATA-over-Ethernet
も検証候補に入れておきます。
AoEデバイスって国内でどっか買えるの?
>80
金物屋で売ってたよ
「金物屋 AoE」でググった。
鉱床からの金貨収集速度が20%上昇した
「金物屋 AoE」でググった。
「オスマン金物屋使った後、スペイン・オスマン金物屋は使用できない」
誰も売ってないという事は俺がCoraidを輸入して売れば儲かるという事ではないだろうか
スーパーマイクロと聞くとSONY NEWSのことが真っ先に頭がよぎるのは私だけ?
社員乙
88 :
名無しさん@お腹いっぱい。:2006/11/29(水) 17:12:39
>>84 黒字になる前に、他の業者が販売し始めて、赤字決済。
いや、是非やってくれ。
>>58 RedHat だけど、GFS なんてどうなんだろうね。興味はあるけど暇がねぇ。
共有ファイルシステム古今東西、
Oracle Cluster File System (OCFS)
Google File Systems (Google GFS)
Redhat Global File System (Redhat GFS)
富士通 PRIMECLUSTER GFS (富士通 GFS)
NEC GSTORAGEFS (NEC GFS)
General Parallel File System (IBM GPFS)
SGI Infinite Storage CXFS (SGI CXFS)
VERITAS Cluster File System (VERITAS CFS)
ほかにある?
そういえば、NFSに馴染み深いはずのWAFSは最近どうなった?
[AからZ]FSの全部が揃ってるという話は聞いたことあるよ。
しかも1990年代の時点で。
リストもらっておけばよかったなあ。
92 :
91:2006/12/10(日) 15:29:04
>>90は実用のものを挙げてあるけど、
>>91の[A-Z]の話は、特定の組織でしか使われないとか
論文になったことがある程度のものだったかも。
pvfs2 とか 9fs とか
afsとかwebfsとか
SFUを使ってNSFをWindowsにマウントしようと思うのですが、何か潜在的な問題はありますか?
National Science Foundation
板違いなのかもしれんが他に見当たらないので
>>95に便乗。
SFU3.5でSolaris上のNFSをマウントしているのですが、
DOSコマンドのmkdirで存在しない中間ディレクトリの作成をするとこけてしまいます。
これってクライアント側の問題ですか?
98 :
名無しさん@お腹いっぱい。:2007/03/07(水) 11:19:31
DOSのmkdirはしらないが、solarisならmkdirに -p オプションが必要
超早いNFSサーバ専用機を余らせており、
これをWindowsから使いたいと考えています。
NFSサーバはNFSv2/v3/v4を扱えますが、
とりあえずNFSv2は使わない方向で考えています。
ユーザ認証用にAcitiveDirectoryを用意してあるので、
SFUを用いてNISにマッピングすることに問題はありません。
Windows側はDHCPでIPアドレスを割り当てていますが
同じサブネット内に他の部署も混じっているため、
IPアドレスベースでのアクセス制御は実質役に立ちません。
特定のWindowsユーザだけにNFSサーバを使わせたいのですが、
うまい方法は無いでしょうか?
他の人が使ったら即刻解雇!
っていう社則を作ればOK
>Windows側はDHCPでIPアドレスを割り当てていますが
>同じサブネット内に他の部署も混じっているため、
>IPアドレスベースでのアクセス制御は実質役に立ちません。
MACアドレスとIPアドレスの1対1のリストを作ってIPアドレスを配布するか
MACアドレスグループに範囲内のIPアドレスを割り当てる設定にするような感じで
DHCPサーバを弄れば良い
>>103 その手法は確実そうなのですが
DHCPサーバは全く違う部署で管理している上、
在籍者全員に割り当てられるだけのアドレス空間の余裕がありません。
(離席者のIPアドレスを回収するためにリース期間を非常に短くしてある)
SFU使ってNFS/CIFSゲートウェイを立てるしかないんでしょうか...
性能ががた落ちするのは明らかなので、
何か別に巧い方法があればとは思うのですが。
多分IPアドレスに余裕無いだろうなぁと思って2番目のを提案したのですが
DHCPサーバの管理が別部門という条件も出てきた以上、仕方ないですね
性能には目をつぶってそうするしかないでしょう
>>105 レスどうもです。
ゲートウェイに使えそうな機材余ってたかな...
CIFSのライセンスキーを購入すれば
こんな妙な事をしなくても済むのですが
3桁万円するので予算が(略
107 :
106:2007/04/19(木) 10:24:22
セットアップしようとした矢先、
NFS鯖は他の事業所にドナドナされる事になりました。
少なくとも1.5TBは有ったのに orz
NFS/CIFSゲートウェイの件は機会があれば試してみようと思います。
1.5Tなんて、もうディスクが3台あれば冗長構成で組めるぜ。
たいした容量じゃない
それにクライアントは何台ぶらさがれるのか、という問題があるけど。
110 :
107:2007/07/04(水) 10:05:17
使おうとしてたのはNetAppだった。
HDD4台程度のなんちゃってNASとは
比較にならないよ。
速度もだけど、容量単価も別世界w
FC接続の144GB HDDが21台搭載してあった。
冗長性に余裕持たせたり、
システム領域やsnapshot領域の関係で
物理容量の約半分がユーザ容量になる。
なので1.5GBが使える、と。
1.5GB
たいへんですね。業者にもってかれましたか?
昔のNetAppはそれくらいだったような
113 :
110:2007/07/15(日) 00:30:53
ああ
単位間違えてたのか
1.5TBね orz
114 :
NFSできない!:2007/08/12(日) 19:08:55
FreeBSDでNFSを実装しようとしているのですが、client credential too weakエラーが出力されうまくいきません。
識者の方、どうぞご教示くださいませ。
設定した項目としては下記の様な感じです。
[/etc/exports]
/test -maproot=nobody -network 192.168.1.1
として
# showmount -e
Exports list on localhost:
/test 192.168.1.1
[/etc/rc.conf]
rpcbind_enable="YES"
nfs_server_enable="YES"
nfs_server_flags="-u -t -n 4"
#nfs_reserved_port_only="YES"
mountd_enable="YES"
mountd_flags="-r"rpcbind_enable="YES"
nfs_server_enable="YES"
nfs_server_flags="-u -t -n 4"
#nfs_reserved_port_only="YES"
mountd_enable="YES"
mountd_flags="-r"
[/etc/hosts.allow]
all : 192.168.1.1 : allow
サーバー側の設定は以上で、その後リブートを実施いたしました。
FreeBSDでNFSがマトモに動いたのは4.xまで。それ以降は本気で使ってはいけない。
116 :
NFSできない!:2007/08/12(日) 19:13:56
次にクライアント側で
[/etc/rc.conf]
nfs_client_enable="YES"
とした後に
rpcinfo -p 192.168.1.1
program vers proto port service
100000 4 tcp 111 rpcbind
100000 3 tcp 111 rpcbind
100000 2 tcp 111 rpcbind
100000 4 udp 111 rpcbind
100000 3 udp 111 rpcbind
100000 2 udp 111 rpcbind
100000 4 local 111 rpcbind
100000 3 local 111 rpcbind
100000 2 local 111 rpcbind
100003 2 udp 2049 nfs
100003 3 udp 2049 nfs
100003 2 tcp 2049 nfs
100003 3 tcp 2049 nfs
100005 1 udp 838 mountd
100005 3 udp 838 mountd
100005 1 tcp 741 mountd
100005 3 tcp 741 mountd
で確認をとり念の為クライアント側もリブートを行いました。
117 :
NFSできない!:2007/08/12(日) 19:14:30
その後、rootにて下記コマンドを入力すると
# mount_nfs nfs_server:/test /test
[udp] 59.106.93.70:/test: RPCPROG_MNT: RPC: Authentication error; why = Client credential too weak
となり、文献を調べてみてもクライアント側からrootで上記コマンドを実施していれば問題なさそうなのです。
サーバー側の/var/log/messagesには
Aug 12 19:10:46 ns5 mountd[754]: mount request from 192.168.1.1 from unprivileged port
となります。
ちなみに-Pオプションとかをつけてみても状況変わらずです。
2chのNFS識者の方、是非たすけてください。
118 :
NFSできない!:2007/08/12(日) 19:19:15
>>115 めちゃくちゃ早いレスありがとうございます!
そんな事情があったんですか。うちのサーバー5.4なんで無理っていう事ですかね。。
とりあえず、
mountd_flags="-n"
してみろ。
120 :
NFSできない!:2007/08/12(日) 19:22:43
やってみます!
121 :
NFSできない!:2007/08/12(日) 19:28:03
きたーーーーーーーーーーーーーーーーーーーーーー!
すげーーーーーーーーーーーーーーーーーーーー1
ありがとぅううう
>FreeBSDでNFSを実装しようとしているのですが
すげー
コード書き直してくれてるの?
超期待
123 :
名無しさん@お腹いっぱい。:2007/09/21(金) 12:08:45
>>115 これ本当?
もう6.2Rくらいまで行ってるんだけど未だに改善されてないの?
本当
今NFSv4が一番安定して使えるOSって何?
Windows
127 :
名無しさん@お腹いっぱい。:2007/09/21(金) 15:08:15
>>127 せっかく回答もらって「信用できない」かよ。
FreeBSD 6.2で NFS鯖運用してみろよ。ドツボにハマルから。
ひとごとだから別に止めないよ。
NFSの話は FreeBSDにおいては禁句です。
多くの開発者が NFSと聞いただけで気分を害します。
分別ある大人なら、FreeBSDコミュニティにおいては
NFSの話はそれとなく避けるのがマナーと言うべきものでしょう。
便所の落書き
本家のMLにはNFSがダメダメという投稿がない上に開発者用の
クラスタなど内部で利用されまくってたりする。
ここではNFSダメダメという書き込みがあるけど不具合の詳細
が全然ない。
たかが2chの書き込みにそこまでの信憑性求めんなよ。
自分で検証すれ。
>>132 FreeBSD同士のNFSだと問題が発覚しにくいんだよ。
異OS間のNFSでとたんに問題発覚する。
手元で試してみろよ。百聞は一見にしかず。
まるでLinuxみたいなことを言うなあ
>>132 >ここではNFSダメダメという書き込みがあるけど不具合の詳細
>が全然ない。
他スレに不具合の詳細あったよ。探して見れ。
FreeBSD 6.2のNFS鯖から、非FreeBSDのNFSクライアントにマウントし、
マウントされたファイルシステム内で(アプリケーションが)lockfしようとすると
ロックが壊れる。(再現率100%)
6.1以前では、ロックが壊れるのではなく、NFS自体が刺さっていた。
6.2ではNFSは刺さらず、ロックを壊してアプリケーションは続行動作するので、
それを見て「6.2以降ではNFSの問題が直った」と勘違いしている人がいるようだが、
実は問題は直っていない。
(もちろん、必要なlockd statd rpcbindは鯖/クライアント両側で起動してる)
質問。
nohideなんてオプションがあるのはLinux(IRIX由来とmanに書いてあったか)だけ?
最近Solaris使い始めて使えるオプションが意外と少ないことに気付いた
>>138 > マウントされたファイルシステム内で(アプリケーションが)lockfしようとすると
system call として advisory lock しか持っていない OS にそれを求められても...
つか, 今時, lockf とか flock なんて野蛮な排他制御を使ってんのかよ?
NFS mountしたファイルシステムでlockfするアプリケーションを動かすのは、運用が間違っとるよ。
FreeBSDに限らず、Solaris等含めて。
>>141 SolarisではNFS上のlockfは全く平気。
すべてのファイルシステムがNFSであるディスクレスクライアントを実現するため、
lockfを含め、NFSもローカルディスクも全く同じように扱えるというのが
大前提としてあるわけだ。
lockfの話は抜きにしても、
2つのNFSクライアントから同時に mkdir(2)またはsymlink(2)した時、
両方のクライアントが成功(戻り値=0)になってしまう事はないのかな?
そういう等羃でない操作はやらないのがNFSのココロ。
NFS上のmkdirやsymlinkが排他的に実行できることは、SolarisやLinuxでは保証されてる。
FreeBSDではコケるのかも知れんが。
一方的に信頼するのは自由だが、OSとプロトコルの方は「保証」などしとらんと思うがな。
RFC1813(RFC3530でもいいが)のCREATEの所を読んでみてくれ。
複数のホストがからむ話だから、誰が誰に対してどういうレベルで保証しているのかを
明確にしないと議論できないな。
symlinkとかアホくさいことしなくても、
シングルホストなら/varか/tmp以下でlockfすりゃいいじゃん。
マルチホストなら排他制御プロセスいっこ用意すれ。
>>148 lockfが使えるならそれで良い。
>>141 が、NFSでlockfするのは運用が間違ってると言ってるから、
その反論として
>>143 が、lockf以外のロック方法を言ってるんじゃないか?
で、シングルホストの話なんか最初から誰もしてない。
マルチホストだからこそ問題になる点の議論。
NFSを想定したコードばかりとは限らない状況で
NFSを使うことになる、なんて話もあるだろう。
そういうときにハマるかハマらないかの差は大きいと思うんだよなあ。
151 :
名無しさん@お腹いっぱい。:2007/10/29(月) 00:31:04
結局なにをどう実験すればいいんだろう。
(1)Solaris10
(2)FreeBSD 6.2(RELENG_6)
(3)NetBSD 3.1
(4)Linux(リリースが新しいもののうちどれか)
これらを混ぜたLANを作り順番にNFSサーバ役をやらせて、
いくつかのロック方法(lockf, flock, fcntl, あと他に何が?)を
使うCのコードを走らせて経過を観察する、でいいのかな?
誰かコード書いてくれないかな。
>>151 flockはもともと単一ホストでしか使えないのでここでは関係なし。
fcntlの(F_SETLKWなど)は、lockfと同じ(というか、lockfがfcntlを呼び出してる)
ので、lockfのみテストすれば桶。
ほか、lockfを使わずに mkdirや symlink や link がロックとして機能するかどうかの
テストができればいいかな。
>lockfがfcntlを呼び出してる
それは実装によって違うだろ
>>152 - 誰かがロック中にサーバが落ちた後のリカバリがまともかどうか
- ロックを獲得したままのクライアントが落ちた後のリカバリがまともかどうか
も必要じゃない?
実装が難しくなるのもそのあたりを考えなきゃいけないからだろうし。
>>154 それはどういう振る舞いをもって「まとも」と見なせばいいんでしょうか。
前者はサーバの落ち具合一つとっても、単なる回線障害なのか、
サーバ側のファイルシステムに絡む問題なのかで話が変わるだろうし。
後者はロックのタイムアウト処理が適切?か、とかですか?
>>149 > その反論として
>>143 が、lockf以外のロック方法を言ってるんじゃないか?
symlinkだのmkdirだのは排他制御の方法としてlockf以上に「お話にならない」。
書類審査で落とされる。
>>156 でも、(少なくとも)Solarisだと、symlinkもmkdirもしっかりロックとして
機能するんだよ。
FreeBSDはlockfがダメだからNFSが使いものにならない
↓
NFSでlockfなんか使うのは運用が間違ってる(mkdirやsymlinkを使えば良い)(>>by 141)
↓
symlinkだのmkdirだのはお話にならない(by
>>156)
↓
FreeBSDではNFSは使えない。
結局こういうことになるじゃんw
symlinkとかではお話にならないとか言ってる奴は……お話にならないな。
メール関係のデーモンやツールをソースからコンパイルする時に
気づくことすら知らないわけで……
とりあえずポリシーとか仕様とか一切とっぱらいで、
ロックとして使えるもの、使われがちなもの、に対して、
各OSをサーバ、クライアントにしたときの動作相性表を書いてみろ、
ってことか? 横方向クライアントOS、縦方向サーバOSにして、
lockf, flock, fcntl, symlink, mkdir
で表が5枚出来る、と。
nfsv4だったらいいんじゃない。
あるじゃんNFSv4
snowhite.cis.uoguelph.ca/nfsv4/
サーバNetApp, クライアントTurboLinux Fujiという環境で
たまに下記のように .nfs〜 で始まるファイルが出来ている
事あるのだけど、これはどういうタイミングで出来るのでしょうか?
また、消してかまわないのでしょうか??
-rw-r--r-- 1 hogehoge admin 2253 10月 10 15:36 .nfs002d56600000001
>>157 仕様上正しく動くことが保証されていないと、1億年と2000年前から動かしたときには
コケることになる。これは排他制御とはいえない。
NFS protocolのsymlinkは保証なんかしていない。
fcntlが使うlockd protocolは保証してるけど、こちらは伝統的にbuggyな実装が多かった。
>>158 なんでNFSで出来ない排他制御をやりたがるのか。問題に応じて解決法はいろいろある。
そもそも遅延とパケットロスのあるTCP/IP越しに排他制御やろうってのが性根が
腐ってるわけで、性能が問題にならないなら1台にまとめればいいし、
性能が重要ならcriticalな処理だけ切り出して1台にまとめ、残りを分散すればよい。
>>159 逆。そういったコードは、NFS越しのファイル操作で排他が保証されないことを
前提に、それでも衝突することがないように(排他できなくてもよいように)
工夫して書かれている。
>>164 UNIXでは、プロセスが開いているファイルでも削除できる。
そのとき、ファイルはすでに削除され見えないのだが、
オープンしたプロセスだけはファイルにアクセスし続けられる。
同じことはNFS上でもできるのだが、NFSでは見えなくするわけにはいかないので、
.nfsXXXX にリネームしてお茶を濁している。
これはプロセスがファイルをクローズしたときに削除される。
クライアントが削除を怠ると(=クライアントのOSが落ちると)
.nfsはストレージ上に残されたまま放置される。
>>165 なんでNFSで出来ない排他制御をやりたがるのか。
だってNFSと銘打ってるのにそれが出来てる(ように見える)OSがあるんだもんよー。
FreeBSDで出来ないのは悔しくね? という話だと思っていた。
168 :
164:2007/10/30(火) 19:31:59
出来ているように見えるだけで
本当に出来ているのかは定かではないw
>>165 >逆。そういったコードは、NFS越しのファイル操作で排他が保証されないことを
>前提に、それでも衝突することがないように(排他できなくてもよいように)
>工夫して書かれている。
えー。
嘘書いちゃ、だめだよ。
171 :
170:2007/10/31(水) 12:53:50
ああ、プロトコル上だけで実現できるかどうかの話をしてるのか。
symlinkはロック機構じゃないんだから、symlinkの使い方を工夫しないで
実現できないのは当然じゃん。
173 :
名無しさん@お腹いっぱい。:2007/11/12(月) 14:19:39
実家 in 四国にあるマシンのディスクを
俺んち in 大阪にあるマシンから nfs でマウントするのは無謀?
セキュリティ面はおいといて( VPN 張るので)、
速度的にとか、ファイルの書き換えしてると不意に
ファイルがロストしちゃったりとか、そういうことってある?
俺は東京にいるんだが普通にSan Joseのファイルサーバをマウントしてるぞ。
175 :
名無しさん@お腹いっぱい。:2007/11/12(月) 15:07:04
>>174 そんな無謀な・・・
そういう時って TCP ベースの nfs 使うの?
それとも VPN 張った上でいつもの UDP なやつ?
そもそも NFS で TCP って聞いたときには
うへぇ、と思ったものだが。
> NFS で TCP うへぇ
何で?
>>176 NFS側にリトライ処理が付いてるのに
TCPにする事でTCP側の再送制御が増えるからではないかと。
1000/100Mbps混在でイーサネットスイッチが
バッファ溢れしてデータをポロポロこぼすような環境だと
NFS over TCPはそれなりに有効。
というかウチの社では推奨してる。
エラーフリー環境で使うなら、
TCPよりUDPの方が速いベンチ結果にはなるね。
> 1000/100Mbps混在でイーサネットスイッチが
> バッファ溢れしてデータをポロポロこぼすような環境だと
まてまてIEEE802.3xのフロー制御あるんだからいまどきそんな環境ありえんだろ。
そんなとこでNFS使ったら再送発生するたびにどれだけつっかえるんだよ。
先にまずネットワーク直せよ。
>> 1000/100Mbps混在でイーサネットスイッチが
>> バッファ溢れしてデータをポロポロこぼすような環境だと
>まてまてIEEE802.3xのフロー制御あるんだ>からいまどきそんな環境ありえんだろ。
普通そうだよな。
でも、そんなスイッチが半年前まで現行機種でな。
営業が安さにつられて構成勝手に変えて、
そのゴミスイッチ相手に格闘する羽目に orz
flow controlで送信止められちゃうとnicの送信ディスクリプタが
足りなくなってOS内でパケット捨てることはあるかもしれない。
181 :
173:2007/11/15(木) 19:26:23
なんかうまくいかなかった原因がわかりました。
PPTP で Linux - Linux で VPN 張ってたんですが,
PPP での MTU のネゴシエーションがうまくできてなかったみたいで
1500 になってたのが原因でした.
思い切って 1400 にしたら問題なくなりました.
うむむ,NTT西日本のフレッツとケイオプティコムの
eo光の間の VPN なんですが,結構ヘッダついてるんだなぁ.
最適値は 1408 のような気もするけど面倒なので 1400.
普通は自動的にネゴってくれますよねぇ?
183 :
名無しさん@お腹いっぱい。:2007/11/20(火) 11:13:29
NFSに強いスイッチを探してます。クライアントは64台くらいです。
構成としては、クライアントとサーバを1つのスイッチに集約するのではなく、
24ポートを数台使ってツリー型の構成にし、ツリーの上流にサーバを置く
形を想定しています。ネストは2段くらいです。
そのものずばりのお勧めより、こういう用途のときにスイッチに必要な機能は
どういうものかを教えていただけると、品定めするときに参考になるのですが、
お知恵を拝借できますでしょうか?
普通にCatalystで良いジャン
ワイヤースピード、ノンブロッキング
低レイテンシ
広帯域スイッチファブリック
>>184 そこをもうちょっと安めでお願いできますか……
NICは全てIntelで揃えるのが吉。
あと、サーバに極端な負荷がかからないよう、アップリンクだけ1Gにして
クライアントは全て100Mにするのが吉。
188 :
名無しさん@お腹いっぱい。:2007/11/21(水) 08:56:03
Broadcom はだめですか?
AMD Opteron なサーバと Intel の NIC の
相性が悪いとかないかな?
189 :
187:2007/11/21(水) 10:09:53
>>188 > Broadcom はだめですか?
Broadcomは評価した事が無いので知らない。
intelもだめだよなあ。相性悪すぎ。ギガビットは総じてダメ。
蟹ギガ。これ、素人にはお勧めしない
192 :
名無しさん@お腹いっぱい。:2007/11/23(金) 11:57:03
>>190 ちょ、んなこといったら使うものないじゃん。
10Gbとか?
broadcomは悪くないがvariantが多すぎて一口に語れないのが問題。
なるほどね
197 :
名無しさん@お腹いっぱい。:2007/11/24(土) 14:06:57
詳しい人に質問、unixでは次のプログラムで読取専用ファイルの作成が可能
int main() {
int fd; char buf[10];
int fd=open("poi", O_CREAT|O_TRUNC|O_WRONLY|O_EXCL, S_IRUSR|S_IRGRP|S_IROTH);
write(fd, buf, sizeof(buf)); /* creatを行ったfdは書き込みが可能 */
fclose(fd);
}
これをNFSv3マウントされたディレクトリ上で実行すると
CREAT, SETATTR, WRITEのprotocolが順に発行されます。
これをNFSサーバ側で問題なく扱おうとすると面倒があって
最後の読取専用へのWRITEを許可するかどうか、
WRITE要求のハンドルがCREATE時のものと一致するかで判断しないといけない。
このような判定の実装はNFSサーバにとって義務なのかな?
>>197 当然義務。
読取専用かどうかは、creatまたはopenの際のみに有効な属性で、
一旦open(ハントル取得)してさえしまえば、
ファイル自体の読みとり専用かどうかに関係なく、
O_WRONLYとかでopenされたのなら書き込みができなければならない。
199 :
名無しさん@お腹いっぱい。:2007/11/24(土) 14:11:38
>>197 プログラム中のfclose(fd)はclose(fd)の間違いです
200 :
名無しさん@お腹いっぱい。:2007/11/24(土) 14:17:29
>>198 おー、こんなピンポイントで回答が来るなんて凄いです 流石unix板
ちなみにこれはCVSが実際にやってくれる操作です
ちなみに、わざわざ C言語でプログラムしなくても、
シェル上で同じことができる。
umask 777
echo hoge > file
とやれば、fileは読み込みも書き込みも不許可で作成されるが、
echo hogeの内容はちゃんとfileに書き込まれる。
fileがNFS上にあっても当然動作しなければならない。
202 :
名無しさん@お腹いっぱい。:2007/11/24(土) 14:21:35
なるほどumaskはそうやって使うんですね
203 :
名無しさん@お腹いっぱい。:2007/11/24(土) 17:34:17
>>198 RFC1813, 4.4 Permission issues の第3段落に書いてありました
204 :
名無しさん@お腹いっぱい。:2007/11/25(日) 15:06:35
RPC でつかうポートが変化するから、
NATルータ越しのNFSは_?
VPN 通すしかない?
Intelの82573L で2.4系カーネルでNICのリセット多発した。
結局、NICのROMのアドレス1部変更で直った。
2.6カーネルでは解消された。
>>204 実装によってはポート固定も無理ではないが、
ここで聞かないとわからないレベルならお薦めしない。
あと、WebNFSという選択肢もある。
207 :
名無しさん@お腹いっぱい。:2007/12/19(水) 02:30:55
NFSとiSCSIでよくファイル単位と、ブロック単位という比較を聞くんですが、
NFSサーバに10GBのファイルがあって、それをNFSクライアントで読み込むときに
10GB全部をクライアントでリード・ライトしなきゃいけないとかそういうことなんでしょうか?
>>207 > NFSとiSCSIでよくファイル単位と、ブロック単位という比較を聞くんですが、
どこであるいは誰に聞いた?
>>208 google: NFS iSCSI ファイル ブロック
http://itpro.nikkeibp.co.jp/article/COLUMN/20060407/234778/ >データ転送の単位は,NASにアクセスするときはファイル単位となる。つまり,NASへのデータ・アクセスでは,ファイル名や共有名などファイルを特定する呼び名で管理している。
>これに対し,SANの場合はブロック単位の処理になる(通常1つのファイルは1つまたは複数のブロックで構成される)。SANでは,リモートにあるディスク装置内のディスクが,あたかもローカル・ディスク(RAWデバイス*4)であるかのように振る舞う。
(略)
>IP-SANには,「FCIP(Fibre Channel over IP)」「iFCP(Internet Fibre Channel Protocol)」「iSCSI(Internet SCSI)」という規格がある。この中で最も期待されているのがiSCSIである。
ってことじゃねーの?
210 :
名無しさん@お腹いっぱい。:2007/12/19(水) 09:58:18
SCSIの復活キター?
って事はiSCSIの方が巨大ファイルでは優位って事なの?
何を持って優劣の指標としているのか明快に述べよ
何を持って誤字の書込みをしているのか明解に述べよ
NFSとiSCSIではファイルシステムの層が違う。
ファイル操作システムコール(API)
VFS
個々のファイルシステム(ext3,xfs,reiserfs,fat16,iso9660)
ドライバ
ハードウェア
NFSってのはファイル操作システムコールに相当、ファイル単位でも扱えるし、
バイト単位で読んだりもできる。VFSから下は考えなくてよい。
iSCSIってのはドライバに相当、ファイル単位では考えないで、
ハードウェアとのやりとりの最小単位(ブロック単位)で考えなければならない。
システムとして利用するには、ファイルシステム、VFS、システムコールも備えていなければならない。
216 :
名無しさん@お腹いっぱい。:2007/12/27(木) 19:59:34
RedHat Linux Enterprise Linux ES 4 2台で NFS サーバと NFS クライアントの設定をしました。
NFS サーバと NFS クライアント側では、それぞれの /etc/passwd にユーザが同じuid、gidで
登録されていて、group hoge に属するユーザだけに書き込ませたいです。
NFSサーバ側:
# mkdir -p /opt/share; ← NFS で共有したいディレクトリを作成
# chgrp hoge share
# chmod g+ws share;
/etc/exports の内容:
/opt/share 192.168.0.0/255.255.255.0(rw,sync)
NFS クライアント側
# mkdir -p /opt/share ← マウントポイントとなるディレクトリを作成
# chgrp hoge share
# chmod g+ws share;
mount -t nfs {nfs_server_name}:/opt/share /opt/share
ここまでは簡単にできたなのですが、nfs クライアント側から、umask が 0022 なユーザが
書き込みをすると、NFS サーバ側では -rw-r--r-- というファイルができます。
ここまではあたりまえですが、これを NFS 側で、強制的に -rw-rw-r として保存するような設定はありますか?
samba だと smb.conf で、公開ディレクトリのブロックの中で
directory mask = 0664
とできますが、これと同じようなことがしたいです。
/opt/share のファイルシステムのマウントオプションのumaskしだいでは?
NFSサーバの実装によってはそういうのもありえるかもしれないけど、
NFSサーバでumaskを強制させてもあまり意味がないのかも。roかrwくらいだろうし…
218 :
216:2008/01/05(土) 07:48:19
>>217 レスどうもありがとうございます。遅くなってすみません。
結局以下の方法で対応しました。
NFS サーバ側で uid hoge / gid hoge という共通ユーザを作成し、
NFS サーバの /etc/exports で以下のようにした。
/opt/share 192.168.0.0/255.255.255.0(rw,sync,all_squash,anonuid=xxx,anongid=xxx)
↑ uid=xxx gid=xxx は、hoge:hoge の uid と gid
こうすることで、NFS クライアント側は gid hoge に属していれば、uid は別のユーザが
作成したファイルを、別のユーザが消すことができるようになりました。
理想は NFS サーバ側で、どの NFS クライアントのユーザがファイルを作成したか知れたほうが
よかったのですが、ここは目をつぶりました。
なお man mount すると、-t で指定するファイルシステムタイプの中で、
一部では -o に mask みたいなオプションが指定できるようですが、-t nfs のときは、
mask と行ったオプションは用意されていませんでした。
そもそも論になるけど、NIS使えば?
えーマジNISー?w
NISが許されるのは10人未満のLANまでだよねーwww
>>220 じゃあなんNISればいいんですか?><
222 :
名無しさん@お腹いっぱい。:2008/03/08(土) 17:17:43
複数台のサーバ環境(自宅サーバ郡)でNFS使って共有するときって、どのディレクトリをシェアするのが効率的なんでしょ
みなさんの運用方法で「これはおすすめ!」っての、教えてもらえないでしょうか。
ちなみにうちはCentOS5の6台構成(Web 3台、Db1台、開発用1台、DB&NFS&Samba鯖機1台)
WebサーバでNFSなんて使わないでくださいネ。
224 :
名無しさん@お腹いっぱい。:2008/03/08(土) 17:43:03
>>223 え、そうなの?
/usr/local/libならシェアしてるけども。
225 :
名無しさん@お腹いっぱい。:2008/03/08(土) 23:39:09
NFSっていらんやろ
>>222 /homeのNFS共有は当然として、
OSのバージョンが同じなら /usr以下をすべてNFS共有する。
updatesとか、OSのバージョン管理が一元化できる。
ホストを1台増やす時でも、OSをインストールする必要はない。
もともとインストール済の/usrをNFS共有して、
ホスト毎に必要な/etcや/varなどを個別に用意するだけで済むから。
227 :
名無しさん@お腹いっぱい。:2008/03/09(日) 13:46:30
>>223 ロードバランサーでWebサーバ束ねているような場合、コンテンツの
directoryをNFSで共有って、良くやるパターンだよね?
セキュリティの事を気にして言っているの?
だとしても、その対処法はあるわけで。
たいていのパッケージシステムは、/usrのNFS共有を想定してないんじゃないかな。
少なくとも、 ベンダやメンテナによるテストはあまりされていないよね。
そもそも今はパッケージシステム(と安くなったディスク)のおかげで、/usrを共有する必要性って薄くない?
ロードバランサで分散しなきゃならないWebトラフィックって、CGI(CPU bound)なやつで、
その場合はRDBを共有するんじゃないかな。NFSサーバではなく。
NFSに限らず、ネットワークは不確かで、トラブルの発生源の代表格。
厄介なホスト間の依存性も発生するし、ホストローカルで完結するならその方がいいに決まってる。
このシステムにNFSって本当に必要なの? って自問してみるのは、管理コストを減らすのに役立つと思う。
個人的な感覚では、システムのメンテナンスのためにNFSをスポットで利用するのは便利だと思う。
(一般ユーザの/homeや/usr/portsみたいなのを共有するということね)
Solarisでは、/usrはNFS共有することが前提で、
パッケージは SUNW**u が /usr用、SUNW**r が /usr以外用と、
きちんと分けて考えられてるね。
なるべく共有できるバイナリを増やすため、
/binを廃止して /binを /usr/binへのsymlinkにしてるくらいだし。
230 :
名無しさん@お腹いっぱい。:2008/03/09(日) 23:41:52
つ、つまり共有すべきなのは/usr, /homeの二つが鉄板ということでおk?
ていうかNFSで共有してる時点でかなりアクセスのパフォーマンスが低下することは避けられないですよね、うーむ。
LAN内で共有してるのであればそんなに気にスンナってか。
231 :
名無しさん@お腹いっぱい。:2008/03/10(月) 10:44:40
いまどきNFSなんて使ってるのか?
>>230 日本語が読めてないな。
Solarisは/usrを共有することを想定して設計されているから共有できる。
おまえが使うOSはSolarisなのか?
*BSD方面では、NFSは「無かったこと」にしたいんだろうなw
よく知らんけど、Linux方面のNFS実装ってマシになったの?
数年前にzero copyな実装になって今ではNFSv4まで対応してます。
236 :
名無しさん@お腹いっぱい。:2008/03/10(月) 14:41:03
NFSでマウントしたディレクトリってやっぱりアクセス速度が低下するんですか
ってことはデータベース(MySQL)のデータ領域をNFS共有して運用するなんてしちゃだめですね。
でもなんでWebならいいんだ?
書き込まないなら良いんじゃない?遅いけど。
OracleみたいにNFS向けに最適化されているならともかく、
通常のデータベースはNFSファイルシステム上に置いてはいけない。
> でもなんでWebならいいんだ?
Webでもよくはない。NFSで複数のWebサーバがコンテンツを共有するのは、
導入費用も管理コストも高くつくアプローチだ。
しちゃだめって言うより
意味なくね?
>>238 > OracleみたいにNFS向けに最適化されている
そうなんか。
Windows 用のだとネットワークストレージ上に DB 作成するのは
やめとけ、みたいな感じだったけど(実際ごにょごにょしないと
作成出来ないし)。
一万個の小さいhtmlファイルが1分ごとに更新されるとかの変なwebサイトで無い限り
NFSなんて使わないほうがいい
>>236 >>227のことと合わせて考えると、Webの場合はCPUがボトルネックになりやすいから、
ロードバランサを導入する意味はある。ただし、変更されるデータの一貫性維持は
どこかで考えておかないといけない。ありがちなのは、そういうデータはDBサーバに
置いて、一貫性維持はアプリケーションとDBの合わせ技でまかなう感じ。
で、Webサーバと同じ理屈で、DBサーバのデータ領域をNFS上に置いて並列運用すると
どうなるかは…
243 :
名無しさん@お腹いっぱい。:2008/03/10(月) 16:40:10
ちょうど今やろうとしてたことが話題にでてきたので教えてください。
サーバが自社内に10台あります、1台目(A)がDBサーバ兼Sambaファイル共有サーバ、もう一台(B)がログ解析&バックアップ機、
残りの8台をWebサーバにしているのですが、この8台にWebコンテンツが分散しているのが運用上大変(めんどくさい)なため
Aのサーバサーバとして8台のWebをクライアントとしたNFSを構成しようと考えていました。
Webコンテンツは/home以下にHTMLファイルのほかPHPやJavaで書いたスクリプトやプログラムが含まれています。また、オリジナルで
書いたライブラリや、PEARなどの外部ライブラリを習慣として各Web機の/usr/local/libに格納しています。
これらそれぞれのバージョン管理などが非常にめんどくさいので、NFSを導入したいと考えているのですが、
↑のお話だとパフォーマンスが悪いので辞めたほうがよいということですか?
詳しいから、お知恵拝借させてください。
>>238 WEBサーバの場合、どういう手法が良いんですかね?
rsyncとか?
>>243 rsync3.0が出て速くなった(らしい)よ
>>243 ここでそれを質問するということは、NFS環境下で障害を起こすアプリケーション・
ユーザコードの有無を検証できる人があなたの組織にはいないと見るけど、どうかな。
ならばrsyncで各サーバにファイルを配布するスクリプトを書いた方が安全だと思う。
コマンド1発で出来るようにしておけば管理の手間も生じない。
(バージョンに依存したアプリケーションが置かれているとかの理由で)共通化できない
特定のホストを個別に対応することも容易。
一般論として、すでに動いているサーバの構成を変えるのは上策じゃない。
NFSを入れるなら、運用を開始する前にテストするべき。
NFSはもう古い、って広告、昔あったよね
249 :
名無しさん@お腹いっぱい。:2008/03/10(月) 22:05:11
>>242 DBにデータを書き込むアプリなら良いけど、ファイルシステム上に
ファイル生成したり、書き換えたりする奴もあるよね。
そうした場合は、NFS置くのが定石。
NetAppみたいの使えば、パフォーマンスもそれほど心配無いだろう。
NetApp買えるなら、その金で1台に集約してNFS不要にする手もあるな。
>>249 アプリケーションがちゃんと並列動作まで考慮してくれてるならいいけど、
通常ファイル使うことからしてあまり期待できないような。
アプリケーションの中身知ってるものならいいけど、自分は定石とまでは言いたくないな。
いずれ結局中身を気にすることにはなる
253 :
名無しさん@お腹いっぱい。:2008/03/12(水) 00:42:22
>>251 ここで言っているアプリは、ロードバランサーで負荷分散できる様な
Webアプリだからね。DBだけじゃなくて、ファイルに書く奴あるじゃん。
そう言うのは、NFSファイルサーバ立てて使うよね?
まあそうだけど、それは「まずい設計をどうにか延命する方法」であって、定石と呼ぶのは抵抗あるなあ。
逆説的だけど、NFS環境を想定したコードが書ける人は、NFSに依存しないで済む方法も用意する。
NFSを使わざるを得ない、というのは、それが本当にNFS上で運用しても問題ないように出来ているのか、一沫の不安を感じるのだ。
NetAppまで導入してしまえば、バックアップ等の運用コストを下げられる余地がでてくるので、
NFSをデスクトップクライアント限定の技術だと考えるのは保守的な考え方かもしれないけどね。
すくなくとも DBのID/PASSはファイル持ちだと思うな。
アクセスをきっかけに変更されないデータならどうだっていいんだけどさー、
>>253はファイルに書くって書いてるじゃん……
>>256 アプリケーションの設計の話だ。
ストレージはファイルシステムだけじゃないだろ?
複数ホスト間で変更の共有が必要な情報を、安易にファイルシステムに格納するアプリケーションは、
トラブルを潜在している徴候だ。
258 :
256:2008/03/12(水) 14:56:34
>>257 いやまぁ、だからそういうことを言いたいわけで。
書き込みするのにNFS共有するのは危ないだろうと。
259 :
名無しさん@お腹いっぱい。:2008/03/13(木) 02:27:16
自宅で5台動かしてるCentOSサーバ(Webサーバ)それぞれにログインするのがめんどい…
/homeを一台でNFS共有して使いまわそうかなと思うのだけど、邪道かな
ついでに/usr/local以下も共有して、自作ライブラリやソースファイルをシェアするってのも検討中。
ガッコで教わったわけじゃないので、どういう風に使うのかが正道なのかわからず、すまんかった…
/homeは共有してもいいんじゃないか?
/homeやサイトローカルなディレクトリのNFS共有は真っ当だろう。
てか、自宅なら好きにやればいいと思うが、
システムのブートやデーモンの類はNFSサーバに依存させないのが吉。
ホスト間の依存関係が複雑になると管理がとてもとても面倒になるから。
あと卒直に言えば、ログインが面倒になるほどホスト増やす時点で
かなり間違った道を進んでいる。
262 :
名無しさん@お腹いっぱい。:2008/03/13(木) 12:16:40
>>261 ログイン簡単にするって、どうすればいいの?
うちの会社は100台弱あって大変… /usr/localをシェアするのっていいなあ
機械なんだから管理はどんどん自動化しろよ。
なんのためのUNIXだよ。
シェアはしないけどNFSにする、って方法もあるぞ。
クライアントの /usr/local他のデータを個別に NFS鯖側に持つ。
すると、NFS鯖にログインするだけですべてのクライアントのデータをいじれる。
シェアはしていないので、書き込み競合とかの問題もなし。
265 :
名無しさん@お腹いっぱい。:2008/03/13(木) 15:14:19
>>263 それ、俺もすげー興味ある。
どんな感じで管理してるの? 参考にしたい。
266 :
名無しさん@お腹いっぱい。:2008/03/13(木) 16:38:40
NFSにちょっと関係があるかと思い便乗質問で恐縮ですが、
NISも導入した方がいいでしょうか? ひとつのサーバにパスワードやグループなどを
一括管理できるようになるのはメリットかと思うのですが、逆にデメリットって実運用
ではどんなことがあるのかと思い。 よろしくおねがいしまんこ。
今更NISか?
LDAPで良いんじゃね?
>>266 UNIXだけで組んだシステムならNISでも悪くないよ。シンプルだし。
デメリットとしては、古臭いというぐらいだと思うw ある程度の規模になると
LDAP + NSS + nscd の方が安定性も反応性も高い希ガスです。
>>262 100台って少ないね・・・
>>263 激しく同意。人間様のプライドとして単純作業はすべて機械にやらせる。
>>265 cfengine とか Puppet とか?
漏れは自作フレームワークでインスコからメンテから全部楽々運用だな。
人海戦術の手作業で鯖管理してるような DQN を見てると悲しくなる。
自作フレームワークをオープンソースでうpしてくれ
NIS使うとshadow passwdの意味がなくなるんだよな。いや、別にいいんだけど
うちもNFS+NISだな。
/homeと/usrをNFSで共有。PXE Bootで/もNFS越し。
まあ、数値計算用でほとんど同じ構成だから、あまり凝ったことをしなくても管理は楽。
272 :
名無しさん@お腹いっぱい。:2008/03/13(木) 20:48:20
>>270 C2セキュリティのオプションONにすればok
ypcatで表示しなくなる。
それでも気になる人はNIS+をどうぞ。
NIS+はサポート終了だって
めでたしめでだし
275 :
名無しさん@お腹いっぱい。:2008/03/15(土) 01:07:04
NFSの転送速度って遅くないですか?
いやーそれほどでも
277 :
名無しさん@お腹いっぱい。:2008/03/15(土) 09:32:29
うちは50MB/secが限度だった
うちは75MB/sぐらい。
> UNIXだけで組んだシステムならNISでも悪くないよ。
悪いこといわんからLDAPにしとけ。
NIS/NIS+はobsolete technologyだ。
特に100台あると(
>>262)、NISにはmap転送ストームの問題がある。
NFS自体
NIS+はobsolete technologyだが
NISは今も今後も現役。
昔はうちでも/usr/localをNFSで共有してたけど、パフォーマンスが悪いので
rsyncで毎晩mirrorする設定にしてるよ。共有してるのは/homeだけ。
/usr/localを更新したら トリガーになるファイルのタイムスタンプを更新して
NFS server側で
touch /usr/local/UPDATE
と印付けておく。
で、client側では、
if [ /mnt/local/UPDATE -nt /usr/local/UPDATE ]; then
DORSYNC="1"
fi
とかして実行させる。ここで全てのclientが同時にrsyncかけると負担がかかるので
そのへんはばらけるように工夫する。
>>281 NISはレプリカが多い時に、
パスワードの同時変更が起きると悲惨。
まさにobsolete。
NISではレプリカとは言わん。批判するなら正しい用語で。
じゃあスレーブなw
ここでhesiodの出番だな
yppushが起きるだけだが? 何が悲惨?
NISがだめだとおもうならnetinfoを使えばいいのに
おっさんが多いスレなのかしら
290 :
名無しさん@お腹いっぱい。:2008/03/16(日) 14:43:57
エクスポートする、またはマウントするパスで、効率的なやり方を教えてください
/
292 :
名無しさん@お腹いっぱい。:2008/03/22(土) 05:02:33
高スペック機1台をNFSサーバにして /export/各サーバ名/home それぞれを公開Webサーバ台分用意、
そして、各Webサーバ(ひとまず4台)からはそれぞれ/homeをマウントさせて運用したいのですが、変でしょうか?
いちお同バージョンのLinux(centos5.1 x86_64)同士なので/usrも共有しようかなと、これは全機共通で。
こういう使い方ってNFSのパフォーマンス悪いのでしょうか
Linuxのネタをここでやろうとするのは変
高スペック機1台をNFSサーバにして /export/各サーバ名/home それぞれを公開Webサーバ台分用意、
そして、各Webサーバ(ひとまず4台)からはそれぞれ/homeをマウントさせて運用したいのですが、変でしょうか?
いちお同バージョンの FreeBSD 6.3R同士なので/usrも共有しようかなと、これは全機共通で。
こういう使い方ってNFSのパフォーマンス悪いのでしょうか
FreeBSDでNFSはヤツの召還呪文
296 :
名無しさん@お腹いっぱい。:2008/03/22(土) 19:51:32
NFSは激遅
>>294 そんなことしないでバックエンド側でファブリック組めばええんちゃう?
298 :
名無しさん@お腹いっぱい。:2008/03/23(日) 03:07:14
>>262 1000台以上あるけど、適当な認証鍵つくって、ループスクリプトでsshでttyつかんで...
ちょいshellscriptを汎用的に書いておけば、一気に全台同じコマンドじっこうできるよん
299 :
名無しさん@お腹いっぱい。:2008/03/23(日) 16:29:41
>>298 どの様に書くのでしょうか。教えていただけますか。ぜひサンプルを。
300 :
名無しさん@お腹いっぱい。:2008/03/24(月) 16:42:59
NISよりも優秀なのってなんだっけ?
>>300 Active Directoryです。
302 :
300:2008/03/24(月) 22:22:59
>>301 ありがとう、Active Directoryを導入しました
>>292 Web公開ファイルを/homeで共有するってこと? アクセス数次第だなぁ。
スタッフアカウントを/homeで共有するのは良いアイデア。
/usrを共有するのは悪いアイデア。rsyncで同期しておけば良い話だから。
304 :
名無しさん@お腹いっぱい。:2008/03/25(火) 11:04:28
>>303 アクセスが多い場合、NFSの転送速度からするとよくないんじゃね?
/homeもrsyncかwww
Webコンテンツならローカルに置くだろうけど、
EtherもCPUも速くなった今の時代、単純にNFSだから遅いとはいいきれない。
ローカルの単体SATAとリモートのNetApp、どちらが平均アクセス速度が速いか。
実運用ならバックアップも考えないと。
CODAも、AFSもどこ行っちまったのだろ。
教えてくれ。
Webアプリのこの時代に分散ファイルシステムってもの…
Satyanarayananのページに久々に行ってみたら、
Internet Suspend/Resumeってのやってんのな。
これもGoogle Gear辺りと比べるとかなり低い階層でやってるな。
W
S
I
こ
nfsでマウントしているディレクトリに、100byte程度のデータを
細かく書いていくプログラムを走らせると、そのクライアント側の
ホストでnfsディレクトリにかなり長い時間アクセスできなくなるのですが
この現象の解決策に関する情報はありませんか?
OSはRedhatlinux4.6 64bit
カーネルは2.6.9-67.EL でも2.6.24でも起こります
同じことをRedhatLinux3.0 の64bit版でやっても起こらないのですが・・
a) 100バイトずつ投げるな
b) ELなんだからベンダのサポートに投げろ
c) Linuxなんぞ投げ捨てろ
どうでもいいが、RedHat4.xって、1998年かそれ前後頃、
3.xは1997年頃? すげー古いOSだよね?
RHLに4.6なんてない。
cacheも増やすべき。acdirmax辺り。
mountオプソンで指定。
時間割くなら、try&errorの厨ニングよりプログラム直した方が幸せになれると思われ。
NFSだろうがなかろうが、バッファリングせず100byteずつwrite(2)ってのは頭おかしい。
データの整合性を維持する意図でそうしてるならasync mountで動かすのは本末転倒だしな。
ソースがないならご愁傷様。
317 :
315:2008/04/01(火) 08:49:29
あれ? 小さいファイルをたくさん作るのかと思ったよ。
どっちとも取れるけど、一つのファイルに少しづつ書くなら、
ディレクトリがアクセスできなくなるのはおかしいなあ。
まあrhelなら4.6はあるけど板違いだしなあ
320 :
名無しさん@お腹いっぱい。:2008/04/09(水) 09:41:04
NFSv3 で同じLANにつながっているマシン同士ではサクサク
ファイル公開できているんだけど、セキュリティ上の理由から
TCPしか通してくれないL3スイッチ越しの隣の部屋のNFSサーバの
ディレクトリを NFSv4 でマウントしたら ls に引っかかる。
ファイルの読み書き、でっかいファイルの転送速度に関しては
たいした違いも無いんだけど、 ls で引っかかる。数秒。
何が原因なんでしょうか?
当然 portmap なんかも通らないんですが、それが原因
なんでしょうか・・・でも NFSv4 だしなぁ。2049/tcp
だけで使えると思うんだけど。
322 :
名無しさん@お腹いっぱい。:2008/04/09(水) 09:55:21
>>321 id でも引っかかるんで、nsswitch.conf 見てみたら、
hosts に wins が指定されていた orz
samba とか使ってねぇのに。
NFSv4のクライアントは何?
Solaris以外でまともに使えるのある?
325 :
323:2008/04/09(水) 11:58:15
いや、トラブルとは関係ない質問
まともに使える=俺の環境・俺の使ってるアプリケーションが動く、だから
基準が人によって全然違うんだよな。
クライアントは1台なのか100台なのか、
テキストエディタでファイルが開けばいいのか、データベースが置けないとダメなのか。
327 :
323:2008/04/09(水) 13:09:20
基準は
>>320の基準でいいや。
「〜をこう使っていてトラブルなし」ってんで。
ちなみに俺は自宅のファイル共有で使うことしか想定してない。
v3→v4の移行するかどうか。
仕事ならクライアントサイドはSolaris以外でv4使わないし。
server Ubuntu 6.06.2 LTS / kernel 2.6.15
client CentOS 5 / kernel 2.6.18
329 :
名無しさん@お腹いっぱい。:2008/04/13(日) 03:40:27
質問です、自宅のLANにCentOS5.1のマシンが4台入る予定なのですが、なるだけ
少ない台数で集中管理したいと思っています。
1台の/homeを他3台でシェアしようと思うのですが、自宅LANのような小規模な環境
だとあまり意味の無い方法でしょうか?
それか、みなさんの書き込みを読んでいると人気の、rsyncをつかって1台のデータを
共有しようかと思ったのですが、リアルタイムに同期してる訳じゃないですよね。
330 :
323:2008/04/13(日) 09:05:07
>>328 Linuxかあ。今度トライしてみるわ。
ちなみにサーバはOpenSolaris。
>>329 全部、デスクトップ機なの?
ノートにNFSホームは良くないと思うけど、
デスクトップならオフライン利用考える必要ないしNFSでいいと思うよ。
332 :
名無しさん@お腹いっぱい。:2008/04/13(日) 12:01:06
>>331 サンクスっ!
NFSでシンプルに構成しようと思います。
よく考えてみりゃ/homeだけってのももったいないから他のも共有マウントしよう
かと思うのだけど、みんなどんな感じでマウントしてるんでしょう?定石ってあるのでしょうか。
マウントする側(3台の方)のHDDって80GBもあるんだけど、マウントしちゃうと余計HDD領域が余っちゃう
よね、なんだかもったいねえ。
クライアントはHDD外してディスクレスだよ。
ネットブートして、/ 全体すべて NFSだよ。
LANが速いと、かえってローカルHDDより速い感じがするくらい。
>>333 素人に無駄な期待を抱かせるような書き込みはよせ。
それはハイエンドのNFS専用鯖機のときの話だ。
>>335 さて、これが無駄な期待でない理由を説明してくれ。
「ローカルHDDより速い感じがするくらい。」
誇張表現
そりゃ、ユーザ一人とか、Networkスカスカなら
そこそこ良いかもしれんけど・・・・・
自宅でやっているときの話とかいているから
ユーザーは分かっている範囲だしネットワークはすかすかだろうな
>>332 ・/homeと/usr/localだけ共有。
相互依存が起きないように両方同じサーバに。
・システムが必要とする分だけを全て/パーティションに。
パッケージシステムに任せて決して共有しない。
・残りは別パーティションとし、nfs exportして、
画像、音楽データを入れたり、バックアップに使ったり。
341 :
名無しさん@お腹いっぱい。:2008/04/14(月) 08:38:20
ぶっちゃけ自宅ならば/homeというよりも、/home/homepageだけをシェアして
基本的にワンユーザー(homepage)で運用したほうが効率いいんでないかい?
あとは
>>340の言うとおり/usr/localもかなあ
個人的にはDNSやsambaを設定してる/etcの一部ファイルもうまくシェアできないかと悩み中
むしろ家族がいてNFSを使っているような奴が異常
鯖なんか立てたら、
うるせーよとクレームくる。
居間のPCでも寝室のPCでも子供部屋のPCでも、
どのPCからログインしても自分の$HOMEで同じ環境にするには
ふつーNFSだろ。
寝室でエロ動画ばっか見てないで、たまには奥さんの相手してやれよ。
恥ずかしがり屋の妻がPCの中から出てきてくれません
君のPCの中にいてくれるならそれでいいじゃないか
350 :
名無しさん@お腹いっぱい。:2008/04/15(火) 02:29:46
/homeを共有したとしてもログインするためのアカウントやパスワード情報がシェアできなきゃ意味なくね?
ホームと比べて人力同期の手間が大した事ない上にスレ違い。
NFSはv4でTCPだけで使えるようになったけど、
NISはやっぱりportmap必須でポートの制御が難しいね。
LDAPでもよくね?
UDP通してなんか問題ある? ポートの制御? そのなの必要ある?
355 :
名無しさん@お腹いっぱい。:2008/04/15(火) 13:48:51
ていうかエルダップ使えよ、
国民は全員使ってるぜ、おまえんち以外は。
そもそもportmap(rpcbind)は、ポート番号を意識せずに、
さらに言えば、下位レイヤーがTCP/IPソケットかどうかすら意識せずに
通信できる上位レイヤーのための概念だ。
それを使わずにポート番号固定にしてTCP/IPに依存するのは昔の考え方。
誰も固定にするなんて言っていない。
そういう場合はどうすると言ったのかを言わないと「固定にする」と言ったとみなされたままになる。
べつにNISでもLDAPでもNetInfoでもいいよ
360 :
名無しさん@お腹いっぱい。:2008/04/16(水) 02:54:04
LDAP
362 :
impress入門者:2008/04/16(水) 16:14:03
>>682, 683
マイレイアウト追加って出来ますか?
数式の規定フォントの指定って出来ますか?
NFSじゃ無理
364 :
名無しさん@お腹いっぱい。:2008/04/16(水) 22:21:40
いや、なんとかすりゃできるかもよ?
俺は教えないけどね
365 :
名無しさん@お腹いっぱい。:2008/04/19(土) 03:14:55
NFSで/usrをシェアするってどうなの?
どうって、普通だよ
367 :
名無しさん@お腹いっぱい。:2008/04/19(土) 13:57:21
や、/usr/localを共有するもんだと思ってたんだけど
>>365みたく/usrなんて共有していいものなのか?
>>367 /usrだからこそ共有していい。
ホスト間で共有できるものは /usr以下(/usr/bin /usr/lib /usr/sbin等)に。
ホスト間で共有できないものは /etc /var /bin /sbin /lib等に
というルールになっている。
Solarisではホスト間で共有できるファイルを増やすため、
/binをsymlinkにして、すべて/usr/binに移動している。
NFS鯖に障害が出たときにすげー面倒くさそう。/sbinだけあってもなぁw
用途や規模や更新頻度にもよるけど、漏れはrsyncとかパッケージの管理とかで
統一する方が好きかな。
370 :
名無しさん@お腹いっぱい。:2008/04/19(土) 21:36:28
んじゃ、NFSじゃなくrsyncで全ホスト間の/usrで同期をとるならば
cronとかで定期的に親機から全ホストに対してrsyncするスクリプトを叩く、でおk?
一時間おきとかに。
パッケージとパッチ使えよ。
/usr以下なら、更新したタイミングで同期すればいいじゃない
ガチで管理したいならもうpuppetとか導入しちゃった方がいいんじゃない?
374 :
名無しさん@お腹いっぱい。:2008/04/25(金) 02:29:03
パペットってどうよ?
10台以下の環境で使うほどの必要あるかな
RDISKはNFSですか?
376 :
名無しさん@お腹いっぱい。:2008/05/02(金) 07:46:00
NFSでマウントしたボリュームについても,クライアント側で
通常のファイルシステムのようにキャッシュは有効なのでしょうか?
NFS 鯖においてあるファイルを NFSv3 でマウントして,
そこそこ大きなファイル(10M程度のログファイル)を
何度も読み込むとすると,何度もトラフィックが発生
するものなのでしょうか?
Linux ユーザなのですが NFS のスレが Linux 板にないのでここに来ました.
なお,FS-Cache とか cachefilesd は使っていません.
通常のディスクキャッシュの仕組みがNFSでマウントした
ボリュームでも働くかどうかということです.
>>376 当然キャッシュされる。もちろん、クライアントの搭載メモリ次第だが。
同じファイルを読み込む場合、2回目は速い。
379 :
376:2008/05/02(金) 13:35:30
レスありがとうございます。最近NFSを利用している
クライアントマシンから「NFSが気絶してる」という
苦情を受けるので、使い方を聞いてみたら10000個ほどの
10MB程度のファイルを次々と grep しただけ、とのこと。
しかも1ファイルごとに100回くらい読み直したとのコト。
せめてクライアント側でキャッシュが有効なら同じファイル
100個読むのは別に負荷じゃないよなぁとおもったのです。
さきほど nfsstat をサーバ側でやってみたら、
Server nfs v3:
null getattr setattr lookup access readlink
6 0% 18278453 80% 143964 0% 781712 3% 2524218 11% 0 0%
read write create mkdir symlink mknod
352987 1% 455073 1% 54698 0% 6321 0% 0 0% 0 0%
remove rmdir rename link readdir readdirplus
51737 0% 5598 0% 88 0% 0 0% 107265 0% 27950 0%
fsstat fsinfo pathconf commit
8 0% 2 0% 0 0% 17191 0%
うむむ、getattr だけで 80% らしい。80% というのが回数なのか
そのコールを処理するのにかかった時間なのかわかりませんが、
なんにせよ getattr 恐るべし。man 5 nfs によるとディレクトリ
エントリがらみのキャッシュ時間を設定しろということなのでしょうか。
うちの使い方では関係ないですが、ディレクトリエントリを
キャッシュしちゃうとロックファイルのような使い方を
してるアプリケーションにとってはまずいことがおきる?
>>379 RHEL4ならbugzilla見にいけ
381 :
376:2008/05/02(金) 16:31:35
>>380 サーバは Ubuntu LTS 6.0.6 LTS です。が
今使ってるカーネルのバージョンに絡んだ何かが
あるかもしれないので時間のあるときに見てみます。
ところで、みなさん nfsd の数ってどうやって最適値を
見積もってらっしゃるんでしょうか? デフォルトが 8
だし、デュアルコアだから 16、いや、20 くらいにしておこう
程度の発想しかできないんですが、たとえば /proc 以下の
何かをモニタしていればヒントが得られるのでしょうか。
383 :
376:2008/05/02(金) 18:48:15
>>379 NFSマウントしているところで、
シリアスな「ロックファイル」を使っちゃいかん。
firefoxの二重起動禁止程度の奴なら実用上問題ないけど。
385 :
名無しさん@お腹いっぱい。:2008/05/05(月) 02:07:33
NFSで10台くらいとシェアするとやっぱりパフォーマンス落ちますか
サーバによるよ。
ローカルディスクより速いサーバは一杯ある。
387 :
名無しさん@お腹いっぱい。:2008/05/05(月) 12:57:28
ML115なんですが
388 :
名無しさん@お腹いっぱい。:2008/05/05(月) 13:56:40
実際にやってみて問題がでたら、ひとつずつ解消してきゃいい。
そういう手間暇かけて試行錯誤するのが許されず、
一発で正着が欲しいなら、経験のある人に頼めばいい。
390 :
名無しさん@お腹いっぱい。:2008/05/05(月) 17:06:14
NFSやるならNISも必須だろ
いやそれほどでも
NISとかLDAPとかNetInfoとかアカウント管理なくても、
NFSプロトコルは問題なく動きます。
393 :
名無しさん@お腹いっぱい。:2008/05/05(月) 20:00:13
アカウント管理なんてする必要あるのか?
100台だろうが1万台だろうが、手作業でアカウント設定すりゃいいじゃん
アイデンティティ管理って奴ですかな。
認証したい時(UNIX認証は除く)はsecure RPCかKerberosが必要になる。
396 :
395:2008/05/05(月) 20:08:47
>>395 Secure RPCのDES認証かKerberos認証というべきだった。
397 :
名無しさん@お腹いっぱい。:2008/05/08(木) 11:00:16
サーバ、クライアントともに
Ubuntu Linux 6.06 LTS
kernel 2.6.15
で nfs4 での利用を試みているのですが、
ブート後数日は普通に動いているのに
いつの間にか ls すると Input/ouptut error
と表示されるようになります。
でもディレクトリエントリが取得できないだけで
そこにあるはずのファイルは読み書きできます。
何が起こっているのでしょうか?
ちなみに Netfilter (iptables) や hosts.{allow|deny}
での制限は一切無しの状態です。
/etc/exports を書き換えて、同じ場所を
NFS v3 でエクスポートしてマウントすると
普通に ls できます。NFS において ls だけできない
(そこにあるはずのファイルにはアクセスできているのに)
というのはどんな状態なのでしょうか?
>>397 >というのはどんな状態なのでしょうか
普通に、ディレクトリだけが読めない状態。
NFS関係なしに、
chmod a-r .
ってやると、カレントディレクトリをlsできなくなるが、
その下にあるファイルは(ファイル名がわかっていれば)読める。
399 :
397:2008/05/08(木) 11:12:12
複数台あるファイル鯖で、NFS v3 で普通はマウントしていて
幸せな暮らしを営んでいるのですが、ファイアウォールの関係で
隣の部署からは NFS v4 (proto=tcp) でマウントしています。
そいつだけたまにディレクトリエントリが見えなくなるのです。
ファイルにはアクセスできているので気づかないことも多いです。
障害発生時刻とログをつぶさに観察していると
nfs_update_inode : inode number mismatch
expected (0:14/0x2), got(0:14/0xb001)
がサーバ側で出たあとにクライアント側からディレクトリ
エントリが見えなくなるようです。それが出たあとも
気を取り直して NFS v3 でマウントしているクライアントからは
何も障害が見えません。
さらに NFS 鯖のログをさかのぼってみていると
nfs4_cb : server xxx.xxx.xxx.xxx not responding, timed out
が頻繁に出ています。これと関係あるのでしょうか。
nfs4_cb が何かこれからググろうと思いますが、
属性キャッシュがらみなのだろうか・・
まずfirewallを疑えよ。
firewallの中でnfs4で確かめてみたら。
スキルもなく実績もないUbuntuLTSなんか使うなよ。
402 :
397:2008/05/08(木) 11:42:00
>>400 ファイル鯖上で localhost がエクスポートしているものを
localhost でマウントしても同じ障害が発生します。
とりあえず週末に業務が終わったらカーネルを差し替えるべく
VMware 上で他のバージョンのカーネルでの挙動を確かめてみます。
TCPにしたいだけなら、NFSv3のTCPにすればいいじゃないか。
404 :
397:2008/05/08(木) 13:06:30
uid振り直して統一しておけばいい。
Googleもいいけど、そこまでログ追ったならソースコード見た方が早いよ
サーバをSolarisに変えろ! > NFSv4
>>397 NFSv4 で認証した時のプロセスID が変わってたらそれが原因の一つでは?
任意の時間で、チェックしてアクティブに umount してからマウントしな
おすと何事もなかったように見えるのではないでしょうか。
>>407みたいなこという人ってどこまで本気なんだろう?
まじ
LinuxでNFSサーバとかどこまでマジなの? という切り口もあるので
どっちもどっち。立ち位置の違いに過ぎない。
NECと富士通の独自NFSサーバはLinux製。
ただしNFSモジュールは別途開発したものに差し替えてる。
nfs mount 時の rsize, wsize ですが、これを指定しない場合は
いくらになるんでしょうか?
>>413 指定しなければデフォルトの値になります。
指定しなかったからといって決して 0にはなりませんので、ご安心ください。
>>414 あほか。wsize/rsizeをいじりたくなったらデフォルト値を知る必要があるだろ。
>>413 OS(とそのバージョン)による。
FreeBSDなら/usr/include/nfsclient/nfs.hにNFS_WSIZE,NFS_RSIZEで定義されてる。
他は知らん。
>>414 Linuxなら、mountコマンドを引数なしで実行したら表示されるだろww
一般ユーザーでも可能。
>>415 ソースを見るんじゃなくて、稼働中のカーネルで実際にマウントされている時の
wsize/rsizeはわからないんですか?
Solarisならman mount_nfsに書いてある。
>>418 それだと、mount後に「現在の」rsize,wsizeを知ることができないじゃん。
もうさ、tcpdumpでNFS WRITEのサイズ見ればいいじゃん
>>418 デフォルト値がわかるからいいじゃんか。
>>418 Solaris なら nfsstat -m でずらっと出てくるお
Linuxでも nfsstat -m で rsize/wsize 他のパラメータもわかる。
manの情報は実際のカーネルとは合ってないことがあるし、
やっぱり現物で確認する方法がいいよね。
その知見は現物でしか使えないけどね。
mountコマンドが、
コマンドラインオプションで指定されなかったnfs mountオプションを、
mount(2)に渡す時に、
・0にしてkernelに任せる
・具体的な規定値を設定する
と二種類あるから気をつけて。
server1 --- server2 -- cilent
server1は指定のディレクトリをNFSで公開します。
server2はserver1のディレクトリをマウントし、NFSで公開します
clientはserver2のディレクトリをマウントします
これはできる?
>>427に追加
server2がLinuxなら〜
>>426 ちなみにserver2でsmbでマウントしたディレクトリを公開したら
書き込みできなかった
>>420 便乗質問
NFS WRITE のサイズって、具体的にどこを見ればいいの?
汎用性あるかしらんが、Linuxなら、
/proc/mount
NFS-SERVER:/home /home nfs rw,v3,rsize=32768,wsize=32768
433 :
名無しさん@お腹いっぱい。:2008/06/30(月) 10:19:33
マシンA,B,Cがあったとして
AからBへnfsマウントして、さらに
BからCへnfsマウントできますか?
つまりCからAのディスクをnfsを2回中継してマウントしたいです。
Linuxでもできない実装なかったっけ
knfsdは不可
unfsdは可
いまどきunfsdなんて使われてないから、結局Linuxでも不可ってこと?
あえてunfsd使えば可ってこと
439 :
名無しさん@お腹いっぱい。:2008/07/09(水) 14:56:06
MACOSXServer10.4のフォルダをエクスポートして、Solaris9でNFSマウントする。
その環境で、Solaris9上でMacのフォルダの容量を取得したい。
そこで質問>>
Solaris9上でNFSマウントしたMacのフォルダをdu -skの値と、
Mac上でdu -skの値に差がある。
Solaris9:2676
Mac:892
NFSマウント方法や、他に容量の取得する方法があれば教えてほしい。
お願いします。
>>439 つ du -sB 1 filename
>216 >218 と同じことやってた。
NFS でマウントしたディレクトリ以下で、
mkdir した場合は、強制的に permission 775 に
するようにできないのかな。
exports しているディレクトリは 2775 にセットしているから、
直下に 755 なファイルを作られても、group ユーザは消せる
けど、directory を 755 で掘らて、その下に 755 なファイルや
ディレクトリを作られると、消せなくて不便。
anonymous にすると、group で共有ディレクトリを制御
できないし。
>>441 クライアント側で mountする時に、-o grpid オプションを付ければ、
ディレクトリのgidはサブディレクトリに伝播するよ。
ありがと。ただ、それは、export 元で permission
を 2775 の 2 (setgid) を立てておくのと同じです。
結局、 全員に permission 775 (umask 002) 以外に
設定することを禁止し、その代わり /usr/home 用に、
uid ごとの個別のgid を用意して、運用することにしました。
NFS をグループ別に共有することができるようになったけど、
なんか、車輪の再生産をした気分。
君は何も生産してないよ。
445 :
名無しさん@お腹いっぱい。:2008/07/21(月) 14:23:42
ちょいと質問。すべて同じOS・同じバージョンです。具体的にはCentOS5.1のx64版。
NFSで/usr/localを共有するのと、/usrを共有するのってどちらの方が運用上賢いでしょうか?
yum upgradeとかしたときに全てのサーバマシンに影響するのかな。
CentOSとやらがどこまでNFS共有を想定しているのか知らんが、
NFSで/usrを共有すると、たとえばNFSサーバ上で何かパッケージをインストール
したとき、NFSクライアント側は、/usrが更新されて/varが更新されていないという
不整合な状態になると思われ。
パッケージシステムを使うなら、複数ホストのパッケージ管理を1操作で
できるようにするのが筋ではないかと。
447 :
名無しさん@お腹いっぱい。:2008/07/21(月) 19:58:22
/usr/localが吉
>>445 system-config-netbootで全部
449 :
名無しさん@お腹いっぱい。:2008/07/21(月) 23:36:11
>>446 NFS 鯖と心中という障害ポイントを作る以上のメリットがない。
そんな程度なら定期的に rsync とかで同期した方が安定かつ高速。
451 :
名無しさん@お腹いっぱい。:2008/07/22(火) 08:16:30
>450
定期的にrsync、というのはどの程度の間隔が良いのでしょうか?
ていうか、障害ポイントを発生させたとしても、管理ポイントが共有によりひとつに
まとまるNFSの方が楽じゃない? NFS鯖を極力落ちないよう準備しておけばいいだけだし。
あくまで確率論だとは思いますが。
>>446は読んだんか?
パッケージ管理の整合性という本質的な問題が理解できてないように思うが?
どんなに暗くても、明けない夜はない。
NFSサーバだってきっと落ちるさ。
>>451 マスターサーバを更新したときに手動で実行するとか、
もしくはクライアントがマスターサーバに何らかの方法で問い合わせて、
更新フラグが立ってたら同期するとかね。
/varも共有してしまえばOK。
/var共有ということは、ほかにも/etcも共有するのですね、わかります
素直にディスクレスクライアントにしてしまえ。
ディスクレスクライアントにしてるよ。
パッケージアップデートとか、
NFS鯖上で各クライアントディレクトリにchrootしてやってる。
クライアントPCが電源OFFでも、NFS鯖上だけでアップデートできるので管理すごく楽。
>>458 クライアントごとにインスタンス作ってるの?
すごく無駄な気が...
>>459 クライアントごとにあるのは / (/var /etc /sbin等)のみ。
/usrは共有してる。共有後にパッケージ管理もしてる。
あ、/sbinのバイナリは個別にハードリンク共有してる。
461 :
名無しさん@お腹いっぱい。:2008/08/07(木) 14:41:19
賢い人はyumを使うような環境で/usrをmountしたりはしない
aufs+NFSで/ごとマウントしてマウント先で個別にyumしてもいいし、
逆にyumは一切しないで元ツリー側でのyumに任せる運用をしてもいいぞ。
463 :
名無しさん@お腹いっぱい。:2008/08/13(水) 08:19:45
CentOS5.2入れて、mount -t nfs したんだけど
flock()使ってるPerlのCGI動かすと1分くらい無反応になって終了しちゃう
ファイルロックかからなくていいから、flock使っても無視するmount方法ってないかな?
ちょっと前のLinuxだと、ふつーにmountしてflockつかっても問題ないんだけど
おれが夕焼けだったころ
a)flockが動かないのに、なぜ動かないのか調べない
b)ファイルロックかからなくていい
c)スクリプトの方を書き換えようとしない
d)デフォルトでNFSマウントされたディレクトリでflockしようとする
いずれも俺には理解できない発想の集合体だ。
a)システムが正常に動いてないんだから、まずどこが異常なのか調べてくれ。
statdとかlockdとか動いてないんじゃないのか。他のアプリケーションの動作にも
支障があるだろう。
b)競合すればデータが壊れる。同時実行しないという仮定でCGI運用したって
必ずいつかどこかで隙を突かれる。
c)なんのためのスクリプト言語なんだ
d)たとえhomeとかNFSマウントしてても、CGIを実行するホストが単一なら
/varのようなローカルマウントしてるディレクトリ上のファイルに対する
ロックで排他するのが筋。
cとdは連鯖なら普通だろ。
aはNFS鯖がFreeBSDとかじゃねーの?
>>468 > cとdは連鯖なら普通だろ。
動かない規定scriptがあるレンタルサーバが普通なのか?
> aはNFS鯖がFreeBSDとかじゃねーの?
( ゚д゚)ポカーン
>>469 おまいさんは客のスクリプトを勝手に書き換えるのか?
>( ゚д゚)ポカーン
このすれを
>>1から読んでこい
質問に回答して、解決すればそれでいいんだよ。
質問主からの結果報告がないようだけど。
>>464 の回答で解決でしょ。
「苦しいんです。いっそ殺して楽にしてください」って患者に言われて、 言われるままに青酸カリを処方する医者は薮なんだぜ。
たとえになってない。
ハイ次。
>>472 Linuxの -o nolock オプション付でmountした場合、
rpc.lockd経由の異ホスト間のロックがかからなくなるだけで、
同一ホスト上だと、(たとえロック対象ファイルがNFS上でも)ちゃんとlockがかかるよ。
なので、-o nolock が質問者に対する適切な回答と思われる。
「まず壊れているものを直す」これが問題解決の原則。
この場合、壊れているのはロック要求に応えないNFSサーバであり、
ロックの必要がないのに獲得しようとしているスクリプトだ。
-o nolockは逆に、壊れていないNFSクライアントを壊してしまう。
(ネットワークワイドでのlockを無効にし、アプリケーションにエラーも返さない)。
そのサイトで動作するアプリケーション全体に影響が及ぶことを考えれば、
他で対処できないときの次善の策と考えた方がよい。
「まず質問者が質問していることに答える」これが問題解決の原則。
自分のやり方を押しつけちゃいかんよ。
どっちも。
「自分のやり方を押しつけちゃいかん」という考えも押しつけちゃいかんよ。
3人とも。
479 :
名無しさん@お腹いっぱい。:2008/08/13(水) 21:31:45
ありがとう -o nolock で無視できた
でもしっくりいかないなあ
statdやlockd走しらせてmountしたファイルシステムにflockかけただけで半ストール状態になっちゃうものなの?
サーバー側がおかしいのかな
質問者はその問題に関する知識がない(これは質問者なんだから当たり前)。
だから、質問者が発した質問が適切に組み立てられるとは期待出来ない。
質問の裏にある、質問者が抱えている真の問題を見抜いて解決法を回答するのが、
知識のある回答者の側の責務。
>>479 サーバ側、もしくはサーバとの通信がおかしい。
たとえばdaemonは動いていてもどこかのレイヤでパケットがフィルタリングされている、等。
>>480 質問者はその問題に関する知識がないからこそ、
直接の回答なしに質問以外のことに対する余分な指図と思われる返答があっても
それを受け入れない、または理解できない。
まずは質問に対する直接の回答をするべき。
一旦その回答を質問者が試した上でさらに質問や疑問点があれば
再度質問すればいいことだから。
>>479 パケットフィルタのせい?
フィルタが原因で、そういう現象が結果として出てくるのかは知らないけど。
エスパーすると、lockd/statdは、クライアント、サーバー、双方で起動必要。
そのどちらかを忘れてるとか。NFS鯖がFreeBSDの場合はlockはうまく動かないのが普通。
理解できるように説明してやればいいんじゃね
485 :
名無しさん@お腹いっぱい。:2008/08/14(木) 22:41:52
フィルタリングはiptablesくらいしかしてないので
サーバー、クライアント両方切ってmountしてみたけど、、、同じだった。
statd走らせたうえで-o nolockで問題ないようなので
これで様子みてみます。
きっとたぶん忘れた頃にぽっと原因がわかったりするとおもう
ありがとー
486 :
名無しさん@お腹いっぱい。:2008/08/14(木) 23:01:57
あ、あとexportfs -aしてもそのクライアントだけハングしちゃう
やっぱりちょっと気味悪いイ
>>481 そんな劣悪な質問者だと直接の回答なのかどうかすら
判断できないんじゃねーの。
>>479 斜めにしか過去レス読んでないのではずしてるかもしれんが、
NFSってパケットが普通にフラグメントして飛ぶので、
フィルタリングしてる機械がアホだと刺さるよ。
FreeBSDのpfでもscrub入れてないと刺さる。
TCPでマウントしても?
>>483 そういえば、FreeBSD+ZFSのNFSサーバでもlockできないのかな?
492 :
490:2008/08/20(水) 20:56:11
>>491 ZFSはexportfsを使わないexportを行うから、lockも自前で行うのかなと思って。
493 :
名無しさん@お腹いっぱい。:2008/09/04(木) 02:17:41
板違い覚悟で質問します。ご迷惑をおかけしますが、なにとぞご協力をお願いします。
物理ファイアウォール経由でNFSマウントをする構成なんですが、その物理FWがIPとポート番号をガチンコ指定なため、
NFSクライアント側の浮動するポート番号をなんとか固定しないといけないです。
すごくアホな話ですが、S側、D側のIPとポートを全制御できるパケットしか許可しないなんて言われてます。
環境:RHEL5 NFSv3
なんとか、NFSクライアントのポート番号を固定化する方法を教えてください。
せめてmount.nfs(サーバ側892ポートと通信するモジュール)のポート番号が特権ポートを使わないようにする
設定を教えてください。
494 :
名無しさん@お腹いっぱい。:2008/09/04(木) 02:23:09
ちなみに、サーバ側の/etc/exportsにinsecureオプションを付与したりもしました。
portmapの使用するポート番号の指定もしました。(/proc/sys/net/ipv4/ip_local_range)
mount.nfsは、NFSマウントをかけに行ったときにnetstatを打つと892と通信していたモジュールです。
111とか2049はお行儀よくエフェメナルポートを使用しているのに、こいつだけウェルノウンポートを使用します。
本当は固定できれば最高なんですが、1024:65535のポート全開放しないとどの道sshやらできないよ
なんて方向で切り込めば押し込めるかなと思ってます。若干デスマーチ気味な構築になってますが、
なかなかデカいプロジェクトなので、重ねてご教示お願いします。
ググレカス
____
/ \ /\ キリッ
. / (ー) (ー)\
/ ⌒(__人__)⌒ \ <若干デスマーチ気味な構築になってますが、
| |r┬-| | なかなかデカいプロジェクトなので、重ねてご教示お願いします。
\ `ー'´ /
ノ \
/´ ヽ
| l \
ヽ -一''''''"~~``'ー--、 -一'''''''ー-、.
ヽ ____(⌒)(⌒)⌒) ) (⌒_(⌒)⌒)⌒))
____
/_ノ ヽ、_\
ミ ミ ミ o゚((●)) ((●))゚o ミ ミ ミ <だっておwww
/⌒)⌒)⌒. ::::::⌒(__人__)⌒:::\ /⌒)⌒)⌒)
| / / / |r┬-| | (⌒)/ / / //
| :::::::::::(⌒) | | | / ゝ :::::::::::/
| ノ | | | \ / ) /
ヽ / `ー'´ ヽ / /
| | l||l 从人 l||l l||l 从人 l||l
ヽ -一''''''"~~``'ー--、 -一'''''''ー-、
ヽ ____(⌒)(⌒)⌒) ) (⌒_(⌒)⌒)⌒))
【お前の頭はくるくるパーだおwwwwwwwwwwwwwwwwwww】
∩ _rヘ / ヽ∩
. /_ノυ___ιヽ_ \
/ / /⌒ ⌒\ ヽ \
( く /( ●) (●)\ > ) お前の頭は
\ `/::::::⌒(__人__)⌒:::::\' /
ヽ| |r┬-| |/
\ `ー'´ /
(( (ヽ三/) (ヽ三/) ))
. (((i ) ___ ( i)))
/ / /_ノ ヽ_\ ヽ \
( く /( ●) (●)\ > ) くるくる
\ `/::::::⌒(__人__)⌒:::::\' /
ヽ|  ̄ |/
\ /
∩∩∩ . ∩∩∩
.∩_:||_:|_:| |_:||_:|_:∩
│ ___ つ ⊂ ___ │
ヽ ノ ___ ヽ ノ
/ / /_ノ ヽ、_\ ヽ \
( く o゚((●)) ((●))゚o > ) パーだおwwwwwwwwwwwwwwwwwww
\ `/::::::⌒(__人__)⌒:::::\' /
ヽ| |r┬-| |/
\ | | | /
| | |
`ー'´
,, -──- 、._
.-"´ \.
:/ _ノ ヽ、_ ヽ.:
:/ o゚((●)) ((●))゚oヽ:
:| (__人__) |: プギャー!!!
:l ) ( l:
:` 、 `ー' /:
:, -‐ (_). /
:l_j_j_j と)丶─‐┬.''´
:ヽ :i |:
:/ :⊂ノ|:
┐(´д`)┌ やしやし
501 :
名無しさん@お腹いっぱい。:2008/09/04(木) 09:23:04
>>496 早速のレスあざす。ただし、私の説明が良くなくて申し訳無いです。
/etc/sysconfig/nfsを編集してサーバ側のポートを固定することは成功しています。
説明が悪くすみません。マウントしにいく側のポートを固定したいと考えています
デカいプロジェクトやデスマーチプロジェクトのサポート役を2chに
求めるって時点でその会社は終わってるな。
503 :
名無しさん@お腹いっぱい。:2008/09/04(木) 10:23:52
>>502 だってメーカーサポートがないんだもーん
504 :
名無しさん@お腹いっぱい。:2008/09/04(木) 10:43:26
フェドラなんかのフォーラムでも質問をなげたのですが、
良い答えはない感じでした。皆ファイアウォールの構成を変えろといいます。
それが正しいと思いますが。
クライアント側のポート番号のみブラックボックス化しているように見えます。
portmapが制御しているのは間違いないと思っていますが。
それこそ新たにモジュールを自作して噛ませる必要があるのでしょうか。
自力で調べられる人とか、構築経験のある人とかがいないから終わってるって
ことだと思うのだが……そりゃデスマーチ状態になるわな的な意味で。
Linux板行けよ。
>>504 > portmapが制御しているのは間違いないと思っていますが。
違います。
ポートの範囲を狭められたとしても、固定は無理です。
lockdやstatdにも言及してないし、あなたには無理な仕事なんじゃないでしょうか?
あ、確かにportmapではありませんでした。rpcbindですね。
NFSクライアントの送信元ポート番号は実装による。普通は固定しない。
1024以下の番号を利用する事が多い。(UNIXの世界では1024以下はrootというお決まりなので)
ファイヤーウォールの設定を SrcPort 1-1024 DstPort 111,2049 と
status lockmgr mountd が使うポートを開放してもらえばよろしい。
ネットワーク管理者からすると、暗号化もされてない通信路でファイヤーウォール越しに
NFSなんてふざけてる奴だ、こう言っておけば諦めるだろうという意図だろう。
どうしてもやりたいなら VPN してやれや。
510 :
名無しさん@お腹いっぱい。:2008/09/04(木) 12:06:15
色々なご意見、ご回答ありがとうございます。
実力不足はいまさらながら痛感しています。
熟達した技術をお持ちの皆様に不快感を与えてしまい申し訳ない気持です。
今後は今以上の精進を持って学習いたしますので、なにとぞご協力お願いしたい所存です。
/etc/sysconfig/nfsの設定ファイルで、lockdやstatdのポートを固定するよう設定しています。
確かにログなどを確認してもそれらのポートが使用されていないので
設定が足りないのかもしれません。rpcinfoでは固定されていることは確認できます。
クライアント側は、使用ポートを固定できなくとも、狭める事ができれば
それでもクローズは可能です。なにとぞ御教示お願いします。
公式ドキュメントなどでportmapが制御しているものと判断しておりました。
それが違うとのこと、了解致しました。ありがとうございます。別のアプローチをトライしてみます。
>>510 このスレの人間は誰もやったことがないから答えられないんだよ。
実際のところはそんなとこw
512 :
名無しさん@お腹いっぱい。:2008/09/04(木) 12:12:27
>>509 貴重なアドバイスありがとうございます。FWの構成もNFSマウントもすべて客先による指示であるため、ベストエフォートである必要があります。
そのため、VPNの検討もしてみます。ありがとうございます
>物理ファイアウォール経由でNFSマウントをする構成なんですが、
どうでもいいけど、物理ファイアウォールといったら
ビルとかに設置してある防火壁のことなんじゃないだろうか。
iptables じゃなくてアプライアンス箱を使っているという意味は
わかるからいいけど。
Linuxカーネルのソース書き換えろ。> 範囲固定
送信元のポート番号を固定したら、NAPTできないじゃん。
2chなんかで質問してしまうなんて、よっぽど気が狂ってるんだろうな。
全て客先による指示なら、客に聞けばいいだろ。
できる事と、できない事の区別もつかないなら、仕事向いてないよ。
うるせーなクソカス
>FWの構成もNFSマウントもすべて客先による指示であるため、
・・・・・客の指示だったら物理的に保証がないとか誰もやったこと無いような事まで
「できますって言っちゃったらやる」って言うの?
さすが出来る技術者は違いますね〜(棒
客が死ねと言ったらお前も死ぬんだな!
だまれボンクラニート
521 :
名無しさん@お腹いっぱい。:2008/09/04(木) 16:49:43
皆様の痛烈なご指摘通り、客先指示には原則従う事が前提です。
そのため、今回のようなケースでも可能性を地獄の果てまで追いかける必要があります。
もし不可能と言うことであれば、不可能である根拠や証跡が必要になります。
現段階ではまだ不可能と断定可能な材料がないため、調査及び有識者各位にお問い合わせしている次第です。
当然皆様に対して不可能な根拠や証跡まで要求する気はございませんが、
それでも図々しいお問い合わせをしていると認識しております。
皆様に置かれましては、私の見苦しい発言の数々でご迷惑の事と存じますが、
今一度のお力添えをお願いしたい所存です。
523 :
名無しさん@お腹いっぱい。:2008/09/04(木) 17:06:08
>>514 >>522 ご回答が遅くなり申し訳ありません。
その手段はOS自体や他APへの影響範囲が評価不可能なため、先ほど客先より却下されました。
申し訳ありません。
技術力がないから「出来ない」といっても客に信用してもらえないんだな。
「うちは技術がないのでそんなこと出来ません」と正直に言っちゃえば
客も流石に飲むしかないと思うがな。
できない仕事とるなよ。
技術がないからできるとかできないとかで仕事選べないんじゃね
既に取っちまったもんを、エンジニアだけでどうこう出来ないだろうて。
自分が同じ立場だったとして「出来ない」と突っぱねられるか?
「2chで聞いたけどできないといわれました。」と答えればいい。
そんなこと言われてもできるようにはならん。
NFSプロキシ建てれば? プロキシ側でソースポート固定と。
自分が同じ立場なら? なぜNFSが必要なのか、なぜソースポートまで固定した
厳格なファイアウォールが必要なのか、そういったところからヒアリングして、
できるだけ客の「やりたい事」に沿った解法を探るだろうな。
客はファイル共有やネットワークの保護がやりたいんであって、
客自身がNFSそのものがやりたい、ソースポート固定そのものがやりたい、ということは稀だ。
当たり前だが。
なんだ、
>>512 で「VPN検討する」って言ってるじゃん。それでFAだろ。
ハイ次の質問どうぞ。
↓
>>531 客がキチガイだったってことは漏れ経験したw
板違いだから。その話題は。
現状 nfsd---|FW|---nfs client
解決 WiFi---nfsd---|FW|---nfs client---WiFi
これで桶w
iptablesでそのサーバ宛のNFS関係パケットのソースポートを書き換える、とか?
あんまりこねくり回すと、意味不明でメンテ不能になるぜ。
VPNして終了でいいじゃん。
あっさりVPNで穴あける前に、なんでVPNなんてものが必要になるのか、
ファイアウォールの意味をもう一度考えようぜ。
単なる釣だろ。
A「お前さん、一杯喰わされたな。ありゃ単なる釣りだぜ」
B「そうか、なら良かった」
A「なに?」
B「ファイアウォールにNFS通そうとする馬鹿な客と馬鹿なSEは、いないんだ」
♪ダンダンドゥヴィ、ドゥヴィダダン……
VPNが最強なんだぜ?
VPNは、先ほど客先より却下されました。
申し訳ありません。
引続き解決策の議論をお願いします。
客に却下されたからダメ、じゃなくて、
そうするよりマシな実現方法はないからこれでやらせろ、
それじゃなきゃやらない、ぐらいのアピールしろよ。
構築だけじゃなくて後の運用もどうせ請け負ってるんだろうから、
客の奴隷になるのは不幸になるだけだ。
そういう客の言いなりで作ると、けっきょく gdgd なものしかできなくて
後々まで泣くことになるぞ。
送信元ポートを固定するようなアプリケーションの設計は
あまりよくない、むしろバカな設計なのだよ。
議論(藁)なんてする必要すらない。
だいたいNFSは信用できるネットワーク内で使う事を前提とされているし
ましてやWANを経由する事も考えられていない。
スレ違いのプロトコルと言ってもいいな。
>客に却下されたからダメ、じゃなくて、
>そうするよりマシな実現方法はないからこれでやらせろ、
>それじゃなきゃやらない、ぐらいのアピールしろよ。
そーだ、その通りだー。
ファイアウオールにNFSを通すなんて(客がどっから実例拾ってきて提示してるか知らないけど)
元々の仕様を超えた使い方に対してはもう議論(苦笑)の余地さえも残っていないと思うけどね。
どうせ却下されるだろうけど試しにw
つ【業務用のネットワークとは別にNFS専用のネットワークを用意する】
>>531 客がキチガイだったってことは漏れ経験したw
548 :
ななし:2008/09/06(土) 01:42:37
少なからずFireWall-1やNetScreenを使っているならNFSでも簡単かつセキュアに
通せるわけだが、その辺りのファイアウォールは使っていないって事?
だったら、そこそこでかいプロジェクトとは思えないんだけど。
ファイアウォールの管理者に地味に嫌がらせされてるだけ??
関係会社の作ってるFireWallアプライアンスは
NFSとか通す設定できなかったなぁ。
まあ専業メーカーの製品には太刀打ちできませんな。
>>545の言う通り、NFSは信用できるネットワーク内で使うことが前提。
NFSのパケットを偽装可能って話は聞いたことあるし、
パケットキャプチャすることでNFSサーバの中身を
レプリケーションできてしまうプログラムなんてのも有ったらしい。
その辺の脆弱性を指摘して、
VPNなりSSHトンネルで保護する必要があるんです! とか
主張してみるのはどうかね?
SecureRPC使えば暗号化/認証できる。
もし必要ならケルベロスも使える。
中間にL3以上の処理の入る環境でNFS使うのはどうもなあ。
TCPなら若干ましだが、パケット落ちるとろくなことがないし。
アホな客と無能な業者が馴れあってる分には
どちらも外の世界に出てこないのでありがたい。
これからも唯一無二のシステム構築に挑戦し続けてほしい。永遠に。
DATA ONTAPの/etcってどこにあるんでしょうか
>>553 出荷時のままなら /vol/vol0/etc
何をしたいのか知らんけど、
rc を始めとした設定ファイルを弄りたいなら
setup コマンド流して設定しなおした方が楽かもしれんよ?
既存の設定を確認したいだけなら
autosupport mail に殆どの設定が添付されてくる。
555 :
名無しさん@お腹いっぱい。:2008/09/14(日) 10:21:59
ていうか
>引続き解決策の議論をお願いします。
なんでうちらが議論せないかんの?
556 :
553:2008/09/14(日) 12:48:47
>>554 おぉ。タンクス。
結局/vol/vol0をlinuxからnfsマウントして編集しました。
/vol/vo0はoffになっていたのでマウントできないのかと思ったらマウントできるし...。
何をしたかったというとhostファイルに項目を追加したかったのですが、FilerViewのhostファイルのマネージャがなぜか「アプレットがない」とか言って起動せず途方にくれてました。
なんか色々方法があるみたいですね。
で、もうひとつご教授ください。
nfsサーバーをsolarisからdataontap搭載のnfsサーバーに乗り換えたいのですがFilerViewからの設定では必ず先頭部分が/vol/vol1となってしまって全ての該当nfsファイルをマウントしているホスト設定ファイルを書き換える必要があります。
現在の設定ファイルをそのまま生かすために/vol/vol0を任意に変更する方法はあるのでしょうか。
>>556 FilerViewが部分的にしか使えないのは
options trusted* 回りか
options httpd* あたりかな...
私が管理してる Filer 群は全部 FilerView 停止してあるので
これ以上のコメントはできないかな、すまんね。
先の件だと、exportfs コマンドを手打ちすれば
FilerView は使わなくて済んだかも。
さて、今回の件だけど、
全ボリューム(ファイルシステム)は
/vol 以下に配置されるので
クライアント側が再設定大会になるのは避けられない。
vol1 や vol2 等となっている部分は変更可能
例: vol rename vol1 foobar
ちなみに vol0 (つまり root volume)は、
名前変えると他に変更すべき個所が山盛りなので
この名前だけは固定にするべき。
あと、NOWにはユーザー登録してあるよね?
管理者ガイド等のマニュアル一式が入手できるので
この機会に登録をお勧め。
558 :
名無しさん@お腹いっぱい。:2008/09/14(日) 14:42:40
すんません質問させてください
exportfsでsyncを指定して
mount -o asyncでマウントした場合、syncは有効になりますか?
exportfsでの設定とmountでの設定の優先順位がわからないであります!!
>>558 おー、exportfsに -actual なんてオプションが追加されてるのか...
リリースノートはこまめに目を通すべきですな orz
情報どうもです。
>>556 リンク先では wrfile つかってファイル作成する方法が書かれてるけど、
標準入力をファイルにリダイレクトする方法と変わらないので
・前の行に戻れない
・途中で中断してやり直せない
・バックアップファイルなんて当然作られない
という難点がある。
緊急時以外は使わない方が良いかと。
質問:NFSクライアント側でnoatime指定してマウントして意味ある?
>>562 NetApp の独自システムなん?
CISCO の IOS みたいにインサイド本とか出てたりするん?
>>561 意味ある。
atime更新が意味を持たない状況ではわりとありがちなチューニング。
>>562 Data ONTAPはファイルサーバ専用OSですな。
一見コマンドシェルっぽい物が実装されてはいるけど
エディタも cd コマンドも無い。
ONTAPシミュレータはいくつか制限あるけど
自習用/検証用としてはそこそこ使える。
他の仮想マシン同様、大量にメモリを消費するのと
ディスクアレイだけに膨大なI/Oが発生することさえ考慮して
PCを構成しておけばストレス無く使えるかと。
ああ、勿論、Data ONTAP GX
(いわゆる大規模クラスタ)は動かないよ?
>>563 インサイド本は見たこと無いですな。
コマンド数はそれほど多くないので直ぐ覚えられるかと。
>>564 ということはasyncもクライアント側のオプションが有効になるということですね
>>564 確認だが、NFS client側で noatime でマウントしても、
NFS server側のファイルの atimeは通常通り更新される。
(だからNFS server側のディスクアクセスが減るわけではない)
それもわかった上でclient側だけ noatime指定しても「意味ある」って
答えてるんだよね?
どの実装の話しているの?
UNIXのmountのnoatimeオプションは、
ファイルシステムに対してatimeのupdateしないようにする
そういう意図だよ。
パケット減少によるパフォーマンスアップということを
読みこなせてないのでは?
>>569 パケット減少については、たとえ noatime を付けていなくても減少する。
もともとNFS client側での atimeの updateはほとんどがキャッシュされていて
滅多に行なわれないから。なので、client側だけでの noatimeは意味ないかと。
NFSサーバー側でローカルHDDをマウントする際に noatimeが付いてないと意味ない。
>>568 は、「NFS client側だけの」noatimeというのを読み落して、
noatime自体の話と混同している風味。
ちなみに、NFSクライアント側で、リードオンリー(mount -r)でNFSマウントしても、
NFSサーバー側の atimeは更新されるよ。要は、NFS鯖のnfsdがそのファイルを
アクセスする時点で atimeが更新されてしまうから。
atimeを更新したくないなら、NFS client側で何やっても不可能。
NFS鯖側で最初から mount -r なりする必要あり。
client側だけでもかなり効くよ。
.mew-summary作り直す時とかさ。
やってみて。
あ、NFSサーバが強力な専用サーバな場合ね。NetAppとか。
貧弱だとサーバ側のディスクがボトルネックだと思う。
mmap経由でファイルを読むのが主体なら、atime更新のためだけのSETATTRが
飛ばなくなる分意味あるんでない?
mmap(2)した領域を読むときに、atime更新のためのSETATTRなぞ飛ぶかい?
>>561-576 このへんは完全に実装依存だから、
実装を特定しないと意味のある議論にならないぜ
NFSの規格だけではどうなるか一概に言えない
NFSだったら専用にLAN組むけどなぁ。。
それなりに、トラヒックかかるし。。。
NFSトラフィック多くね?
↓
NFS専用LANを構築して追い出す
↓
NFS以外のトラフィックたいしたことなくね?
↓
NFS専用LANに相乗りさせてLAN統合
↓
cool!
>>579 あるから困るwww
VoIPで遅延ってまずくね?
↓
VoIP専用LANを構築
↓
VoIP以外のトラフィックたいしたことなくね?
↓
QoSの設定を加えてLAN統合
↓
awesome!!
>>580 VoIPに必要なのは応答速度で帯域は数千回線レベルにならないと
問題にならないってのは突っ込んじゃいけないんだろうなぁ〜
とおもいつつ突っ込むw
通常会社のフロアとかならQoSあれば十分だとおも
582 :
580:2008/09/25(木) 15:35:03
>>581 わざとスキのある突込みをしてるのかもしれないけど、
メールとかWebとかのバーストでVoIPに影響を出したくない、
ってのがそのときの狙いだったのよ。
(フロアに100〜150人ぐらい居る環境)
もちろん、QoSでクリアできるレベルだったんだけど、
そのお客さんおかかえのベンダーがアホで
「専用のLANにするのが普通」とか言っちゃうもんで。
>>582 あぁなるほど、アホなベンダーの影響くらったのね
いやVoIPなんて1回線多くて64kbit/sなので
LAN分離して帯域も応答速度も確保なんて事は普通しないだろうと
LAN分離するなら帯域も使われることを考慮してるのかなと思っただけ
大体分離したらVoIPの意味が半減するし
(一緒だからこそ工事費や管理費や回線費用削減とかになるんだし)
って見直したらちゃんとVoIPで遅延ってまずくねって書いてあったねすまん
WANはともかく、末端までGbEな今のフロアでQoSは要らなくね?
それは要求と環境による
>>558 >>559 情報d
おかげさまで要求仕様完全クリアーです。ヤター!
と思ったらどうやら前任者が「頭が/vol/vol1になるのは装置仕様」で逃げてたらしく、
「できるんだったらぜんぶやってよ」で仕事が増えた.....。
>>559様
さらに質問
DATAONTAP側の一つの公開ディレクトリを違う名前で同時に公開することは可能ですか?
これができるとホストの都合で切り替えができるのですが、できないとタイムテーブルを引いて段取りつけないといけないめんどくちゃいw
2chねたで仕事をする男
>>586 正直言って実機で試さないと断言できないな...
cifsだと同じパスに複数の共有名を付けられるんだけどな。
exportfs(5)を見る限り、
最後に記述されたパスが有効とあるので
同じパスを別名、つまり
ONTAP本来の /vol/vol1/foobar と
-actual を使って /hoge というように
2通りにはexportできないのではないかと思う。
あと、-actual は変換テーブルを作るオプションだろうから
ONTAP内部のオーバーヘッドを嫌うのであれば
使わない方がいいのかも知れない。
何にせよ、実機(無理ならシミュレータ)で
試してから決定した方がいいよ。
>前任者が「頭が/vol/vol1になるのは装置仕様」
昔のONTAPはそういう仕様だったので
全くの間違いという訳ではないかと。
ONTAP6.5.7より前のどこかで追加されたっぽい。
589 :
名無しさん@お腹いっぱい。:2008/09/29(月) 20:06:12
>>588 毎度トン
だめか〜。
そろそろDATAONTAP担当になってしまいそうだw
ここで踏ん張っておけば食いっぱぐれないか?
DATAONTAPとBIGIPあたりを押さえたら食いっぱぐれないかなぁ。
BIGIPは認定資格があるみたいだけどDATAONTAPもあるのかな。
>>589 さすがに外部向けの認定資格はないんじゃないかな...
内部向けになら有ってもおかしくないとは思う。
データ移行周りや認証の統合あたりは
マニュアル見ていきなり本番じゃ辛いだろうしねぇ。
591 :
名無しさん@お腹いっぱい。:2008/10/01(水) 22:47:24
>>591 お、おおー
認定資格なんてあったのか...情報tnx
でもまあ、言われる通り、
NetAppだけが分かってても仕方ないやね。
私も精進しないとな。
本来NetAppは簡単であるべき、というのは全くその通りで
options(1)の最後の方にもそんなことが書いてある。
実際簡単だしね。
今時のストレージってみんな簡単なんじゃね?
接続して玉入れて、玉の割り当てとかノードの分散とか
すげーテキトーに設計するだけかとw
製品ごとに違うのって、CUIとかGUIとか機能名とかそんな程度。
基本的にはどれか1つ知ってれば通用しちゃう希ガス・・・
だけじゃなくて+αとして自分のものにしておけば一等最初のリストラ要員にはならないだろ。
一等最初が自分でなけりゃ対策も立てられるってもんだ。
簡単簡単とはいうが本番環境のNFSの容量変更なんかはなかなかどきどきするぜイニシャライズ中とか表示でるしw
>>595 高いストレージだと、増設も一瞬なんだよな。もちろん見かけ上だが。
+αってのは同意。「ここをあーするとこうなる」というバカな覚え方ではなく、
本質を理解した上で「これをそうするには、ここがあーだから、こうする」
という風に覚えることだわな。応用も利くし。
後は人脈かな。ま、すべてストレージに限った話ではないけどw
NFSってなぜノードを中継できないの?
S<->Cだけなのですか?
S-S-Cとかなぜできないの?
NFSプロキシって具体的にどうやって
作るのですか?
>>597 そういうプロトコルだから
DRBD使えばいいじゃん
>>597 金出せばそういう製品もあるよ。NASスイッチでぐぐれかす。
面倒くさいからレスしなかったんだけど、
>>426あたりは読んでないの?
質問する前にスレ全部読めよ。
>>597 なぜ出来ないのか知らんけど、
中間のSは飛ばせないの?
603 :
名無しさん@お腹いっぱい。:2008/11/18(火) 08:08:20
NFSについて質問です。
NFSクライアントでmountしてから、例えばlsコマンドを打つとファイル名が見えるのですが
それ以降lsコマンドを打ってもディレクトリやファイルが見えなくなります。
しかしなぜかファイルの数だけは表示されますし、パスを正しく指定すればファイルを開くこともできます。
sambaでは正常に使用できています。
解決方法をご存知の方がいましたらご教示下さい。
>>601 あーだCODAいうよりとかいう突っ込みを期待した俺がバカだった。
って、codaどこいったんだ、AFSはどこさー
>>603 cifsの方が出来はともかく普及しているからそっち使ったほうが楽ぢゃないか?
下々のモノは使いにくいものを頑張って使うほど時間が無いと自覚するようになった。
すみませんが、下々のモノじゃなくて詳しい方、回答をお願いします。
NFS クライアントって Windows 上に SFU あり突っ込んで動作させる奴のこと?
すまん, 訂正
> NFS クライアントって Windows 上 SFU あり突っ込んで動作させる奴のこと?
Windows 上に SFU あたりを突っ込んで動作させる奴のこと?
>>606 申し訳ありませんが上のモノは出払っておりまして(以下略
>>609 すみませんが、他の優秀な会社の方、回答をお願いします
>>611 解答に対する報酬は、解答が役に立ったかどうかで出来高制でお支払いします。
ただし、その判断基準は当方の基準によります。最低で0円の場合もあり得ます。
それでは解答ください。
>>612 それならここで聞かずにSunなりRedHatなり、
有償サポートを提供してるところで聞けば?
嫌ならWireShark使うとかして
自分で解析すればいいじゃない。
やってておもしろいの?
はいちょー。
617 :
名無しさん@お腹いっぱい。:2008/11/27(木) 00:52:28
別なnfsサーバへの移行を考えてます。
最小の停止時間としたいのですが、よいツールありますか?
商用製品では、ストレージ仮想化製品を利用すればよいのですが、
同等のものがオープンソースでありますか?
>>617 ある程度まとまった時間が取れるのであれば、
rsync とかでちびちび同期をかけておいて、
切り替え時間になったら
・クライアントを全部切り離し
・最後のrsync実行
・IPアドレス等の設定変更
ってのが一番無難そうに思えるけどー
仮想化製品ってどうにも胡散臭くてな(笑
試したわけじゃないですが、クライアントは全て再起動に
なりそうな気がしますよ。
なんかセッションIDみたいのがあって、サーバの構成がかわると
mountがうまくいかなくなります。
そのあたりも検証してください。
あ、いや、再起動は必要ない。一旦umountしてmountすればいい。
まぁしかし、umountしようとすると大抵なんかのプロセスがロックを
握っていて出来ないものだが(w
凡ミスだろうけど、ロックじゃなくても、オープンだけでもな
ベタな構成であればrsyncが無難かもね
最終同期にも時間がかかるようだったら
・クライアントを全部切り離し
・リードオンリーで再マウント ←この工程を追加
・最後のrsync実行
・IPアドレス等の設定変更
すれば読み込みの停止時間は最低限に抑えられるかも。
コピー先をDRBDかなんかでFSミラーリングしとけば次はもっと楽ちんに交換できるかもね
ファイルの数やディレクトリの階層が深かったりするとrsyncが死ぬ。
事前にcp -a などでコピーしといて、移行時にcp -u で差分をコピーするよろし。
いつの時代のrsync使ってんだよ。
cp -a も cp -u も GNU依存。
rsyncもGNUだろがアホ。
>>627 GNU版しかないものは問題ないんだよ。
元の質問者がLinuxとは言ってないのに、cp -a とか cp -u とか出てくるのは
いかがなものかと。
BSD厨かマカーかSolaris野郎か、どうせ /usr/gnu 使ってるくせに。
tar で差分でもなんでも取ってコピーしてくださいな。
>625
最新!?
マクのcpに至ってはGNU依存なんて生易しいもんじゃない。
じゃあ full dump + level 1 dump / restore とか zfs send /receive で。
dump 相当の管理コマンドのない FS なんて存在すら許されませんよねー。
633 :
名無しさん@お腹いっぱい。:2008/12/10(水) 15:24:02
-r, --recursive
This tells rsync to copy directories recursively. See also --dirs (-d).
Beginning with rsync 3.0.0, the recursive algorithm used is now an incremental
scan that uses much less memory than before and begins the transfer after
the scanning of the first few directories have been completed. This incremental
scan only affects our recursion algorithm, and does not change a non-recursive
transfer. It is also only possible when both ends of the transfer are at least version 3.0.0.
636 :
名無しさん@お腹いっぱい。:2008/12/13(土) 13:04:38
>>635 -r使えばout of memoryにならないって事?
TeraByteクラスのファイルサーバで試した人いるかなぁ。
3.0.0以降では-r使ったときのメモリ消費をアルゴリズムを見直すことで抑えたってことでしょ。
再帰的にディレクトリとファイルを大量に作るスクリプト書いて、
rsync実行して試すしかないなw それが確実。
639 :
名無しさん@お腹いっぱい。:2008/12/13(土) 17:59:18
そうか。良く考えてみるとサイズは関係ないんだもんね。
ファイル数が膨大になると、リストを処理するためのメモリが
いっぱいになってダウンしていたのだから。touchで大量の
ファイル作ればいいだけか。
それならプアーな検証環境でも数千万のファイル作れるな。
ZFS使えば、ファイル数も気にする必要ないし。
シェルスクリプトで数千万ファイルって何時間コースだろう・・・・w
641 :
名無しさん@お腹いっぱい。:2008/12/13(土) 20:19:26
放置しておけばいいだけだから。
ZFSなら、一定量ファイルが作られたところで
snapshot、cloneして増やして行く事もできるしな。
何とかなるだろ。
>>641 おいおい・・・
creat(2)が10msとしても、シェルスクリプトからファイル作るための
オーバーヘッドが100msあるだけで2週間ほど時間余分にかかるんだぞ?
数千万とか、ms/usとかの数字の感覚がちょっと弱くないか?
touch に引数複数与えれば 1fork あたりは減らせるし
別に上にいるのが shell script なだけなら
そんなにつるし上げるほどの話ではないような
>>642 おいおい・・・
いくらシェルスクリプトとは言え、ファイル作るオーバーヘッドが100msだとか、
いまどきcreat(2)でファイル作ってると言うとか、
今の時代の感覚がちょっと弱くないか?
>>643 touchじゃなくて、> $file でファイル作れば外部コマンドをforkしないから高速。
そんなしょうもない心配するくらいならCで書けば?って気がするんですが。
別に難しいプログラムじゃないんだし。
>>639 全然違うぞw
コピー先でのremove動作をロールバックする必然性があるかどうかの問題。
もうNFS全然関係ないけど、FreeBSDのufs, soft-updatesにて。
% time zsh -c 'for i in {10000..19999}; do touch $i; done'
zsh -c 'for i in {10000..19999}; do touch $i; done' 1.78s user 7.34s system 105% cpu 8.652 total
% time zsh -c 'touch {20000..29999}'
zsh -c 'touch {20000..29999}' 0.01s user 0.60s system 85% cpu 0.715 total
>>646 rsync先もZFSならrolebackでremoveが一瞬なのでお勧めの意味?
>>647 touchって最大いくつまでファイル渡せるんだろう
10000も渡せるとは驚き
それはtouchじゃなくて、kernelの制限。
kernel? shellじゃない?
651 :
名無しさん@お腹いっぱい。:2008/12/14(日) 22:20:45
ファイル記述子の制約?
kernelです。> ARG_MAX
今度暇な時に、ps(1)にコマンド引数も出力させた時、
どうやって引数を得ているか調べてみてください。
シェルはコマンドラインの文字列長でしたかな。
ls叩くと数秒待ってからコマンドの出力が出てくるのですが何が原因でしょうか?
ネットワークが重いとか
ご回答有難うございます。
>>655 NFSサーバとNFSクライアントは同じスイッチのバックプレーンに収まる配置でして、全てGigabitEtherにて構築されているのでネットワークは詰まっていないのですよ(MRTG等で確認済み)。。。
>>656 ls -nだと即レスポンスがありました。ls -lすると遅いです。。。
1ディレクトリには100個程度のファイルがあるのですが所有者とかタイムスタンプを取得するのって、そんなに大変なんでしたっけ?
>>657 /bin/ls -n
/bin/ls -ln
/bin/ls -l
も試してください。
一番上だけ速い→i-nodeキャッシュが足りない
上の二つが速い→nssが遅い
全部遅い→NFSサーバ or ネットワークが遅い
aliasやshell内蔵lsに誤魔化されないように/bin/lsってしてね。いい子だから。
>>658 ご丁寧に有難うございます。
/bin/lsする対象については各項目を試す前にumount/mountを実施してみました。
・/bin/ls -n
real 0m0.019s
user 0m0.000s
sys 0m0.002s
・/bin/ls -ln
real 0m1.163s
user 0m0.000s
sys 0m0.005s
・/bin/ls -l
real 0m1.134s
user 0m0.000s
sys 0m0.006s
inodeのキャッシュが足りないのでしょうか?
こういう場合、一般的にはどのように対処するものでしょうか。。。
何回連続でやってもその差が変らないなら、
mountのオプションでi-nodeのリードキャッシュを増加&延ばす!
uid, gidの逆引きは全く問題がないよう。
nsswitch.confはfilesオンリーかな?
あ、それから
・tcpマウント
・version 3, 4マウント
も試した方がよい。
>>660-661 色々と情報を有難うございます。
>mountのオプションでi-nodeのリードキャッシュを増加&延ばす!
fstabやmountでread cacheの指定ができるんですか??
軽くmanしてみたり検索してみたのですが具体的に言及しているものにたどり着けず・・・
nsswitch.confはhosts以外は全部filesになっています。
現在はTCPのNFSv3にてマウントしています。
man 5 nfsかな?
man -k mount | grep nfsするとか、mountのSEE ALSOみるとか。
acregmin, acregmax, acdirmin, acdirmaxあたりでしょうか?
rsizeも。
i-node cacheやらlookup cacheの保持量の指定ってNFSプロトコル上の話でなく
OS依存のことだから、OSわからないことには具体的なことは言えないような。
UNIX類はほとんど一緒。
知ったか乙
そういや元質問者は OS もバージョンも書いてないのぅ…
>>666 そういう場合は、自分の知っているOSの場合について回答すれば良い。
「OSわからないと答えられない」という奴に限って、
OSがわかっても答えられない。
まあなんだ、いろいろ乙
>>663 man 5 で nfsの項目があるのは Linuxだと、エスパーならわかる。
674 :
名無しさん@お腹いっぱい。:2009/01/16(金) 05:24:18
nfsv4 だと単一ファイルシステムとしてエクスポートしますが、
そのためのディレクトリってどこが標準なんでしょうか。
/export とか /shared とか、これは標準ってないもんですか?
ないね。
NFSエクスポートするディレクトリ名は、
/lBd1sZ35XRpAl
みたいに、ランダムで覚えられない大小英文字と数字の組合せにしましょう。
LAN内からの悪戯でマウントされるのを防ぐためです。
つ showmount -e hostname
「つ」のレスは、外してる、の法則成立
pgr
ちゃんと説明できないから「つ」でごまかしてんだよな。
681 :
名無しさん@お腹いっぱい。:2009/01/18(日) 10:24:18
>LAN内からの悪戯でマウントされるのを防ぐためです。
それで防げるのか?
管理しきれないホストがつながるセグメントなのに、
exportsにセグメントを指定しているのか?
683 :
名無しさん@お腹いっぱい。:2009/01/19(月) 06:29:35
nfs4でマウントしているんだけど,rpc.idmapdが動いているのに
クライアント側にはUID=GID=4294967294 で公開されてる.
俺の rpc.idmapd ちゃんがちゃんと動いているかどうか
もっと詳しく知りたいのだが…
684 :
683:2009/01/19(月) 06:31:51
サーバは Debian i386 クライアントは Debian sparc で
クライアント側のログはこんな感じ.
Jan 19 06:30:00 nas-01-CD-4C rpc.idmapd[8371]: libnfsidmap: using domain: localdomain
Jan 19 06:30:00 nas-01-CD-4C rpc.idmapd[8371]: libnfsidmap: using translation method: nsswitch
Jan 19 06:30:00 nas-01-CD-4C rpc.idmapd[8372]: Expiration time is 600 seconds.
Jan 19 06:30:00 nas-01-CD-4C rpc.idmapd[8372]: Opened /proc/net/rpc/nfs4.nametoid/channel
Jan 19 06:30:00 nas-01-CD-4C rpc.idmapd[8372]: Opened /proc/net/rpc/nfs4.idtoname/channel
プロセス自体は起動しているようなんだが.
つ rpc.idmapd -d "exsample.com" -f -vvv
一般的にNAS(NFS)にDBを乗せるとパフォーマンスが出ないって言いますが、
FibreChannelのストレージだと乗せても大丈夫と聞きました。
ロックの問題があるかもしれませんが、それ以外の部分でNFSがFibreChannelに劣っている部分ってどこですか?
ローレベルなアクセスができないことだな。
VFSを経由したアクセスがすべて。
>>686 >>687 の指摘通り、
DBエンジンがストレージの下の層へ直接アクセスできないのが弱点。
NASを使用した場合、ファイルシステムを介してのみ
表領域へアクセスできるわけで、
SANの時には介在しない層がオーバーヘッドになってくる。
まあ、Oracle 本社みたいに、NAS使ってる事例もあるから
一長一短じゃないかなと。
今はNASをSANに統合(SANにNASコントローラを接続)する方法も、
NASにSANを統合(NASがSANをエミュレーション)する方法も
あるから、何を重視するかによって選べば良いのでは。
NASだとパフォーマンスでないというか、
NASだとパフォーマンスでない設定が簡単にできるって感じかな。
長い時間書込みが続くような非現実的なベンチだとかなり差がつくけど。
ここで聞くべきかどうか分からんがちょっとこれを見てくれ
〔NFSサーバ側〕
[hostA]と[hostB]
OS:solaris 10 x86
3台のHDD(ATA)全体をZFSのストライプで構成
sharenfs=onで共有
どちらもオンボードコントローラでハードウェアRAID無し
相違点はHDD
[hostA]が20G×3
[hostB]が40G,60G,160G
〔クライアント側〕
OS:winXP(SFUを導入)
TCPでハードマウント、再試行間隔:0.8秒、読み取りバッファ:16KB、書き込みバッファ:32KB
ユーザー名マッピングはpasswd,groupを利用
〔問題点〕
winXPからhostAの共有をエクスプローラで表示する際
hostBに比べて表示速度がかなり遅い(3分以上かかる場合がある)
〔環境〕
どのマシンも100BASE-Tの全二重、同じサブネットに属する
1つのHUBに3台のみの環境でテストしたためこれ以外のトラフィックは無し
というわけなんだが誰か何か分かる人居ないかな?
他に情報が欲しければ出すけど
なんという上から目線・・・
お取り引き先業者にインシデント先払いにてお申し付けください
AとBそれぞれにアクセスした際のtcpdump結果を比較しる。
tcpdump結果…?
問題ありませんが、
ハイ次。
終了
ハイ次。
すみませんが詳しい方のみ回答をお願いします
ワロスw
遅いってんだから、どっかで遅延してる原因があるだろ?
タイムスタンプ付きでtcpdumpして、そのポイントを調べろよ。
まずは切り分けして行くことが大事だろうて。
すみませんが、インシデント料をお支払いただける方のみ質問をお願いします
終了だな。はい、次の方〜
質問料は払えませんが、NFSって何でステートレスなんて無謀な事考えたんですか?
終了
ハイ次。
>>701 サーバを再起動しても、
ファイルサービスを続行できるから。
裏2chに原因書いておいたよ
ワッフルワッフル
よくあるミスだが、
ホスト名の解決ができずに、応答待ちになっている。
WebDAVが有効になっていて、その応答待ちになっている。
707 :
名無しさん@お腹いっぱい。:2009/02/22(日) 09:30:08
AuthorizationはRPCでやっているので、
NFSしか面倒を見ないidmapdで、
remoteのauthorizationをどうこうするわけにはいきません。
709 :
名無しさん@お腹いっぱい。:2009/02/22(日) 14:04:00
ふうむ、そうなんですか…
ではidmapdって何のためにって感じもするんですが
uidとユーザ名合わせておかなきゃならないなら
いままで通りNISと合わせて運用するのがいいみたいですね。
今はLDAPでしょ。
Kerberosって帰ってくると思ってた.
NFSとCIFSのパフォーマンスの比較について書かれたドキュメントってありません?
>>711 Kerberosは、authorizationが足りません。
LDAPで言うところのNIS schemaがない。
つまりuid, gid, グループ所属、パスワード期間を管理できない。
>>712 プロトコル上の優劣はほとんどないです。
それより問題になるのはAAAの仕組み、
特にauthorizationの仕組みが違うことでしょう。
714 :
名無しさん@お腹いっぱい。:2009/03/28(土) 11:27:12
solarisで言うforcedirectioってLinuxだとどうやって設定したらいいですか?
715 :
名無しさん@お腹いっぱい。:2009/03/28(土) 11:28:16
Solarisで言うforcedirectioってLinuxだとどうやって設定したらいいんですか?
キャッシュ切れないです。
i-nodeの方だけnoacで切れます。
717 :
名無しさん@お腹いっぱい。:2009/04/01(水) 21:45:44
どこかにRFC1813の和訳はありませんか?
Linux (RHEL) の NFS クライアントに forcedirectio 機能はないよ。
他のディストリビューションは知らん。
720 :
名無しさん@お腹いっぱい。:2009/05/17(日) 16:24:51
>>714 noac,syncでforcedirectoioぽいかなとおもったけど差が分からん・・・
721 :
名無しさん@お腹いっぱい。:2009/05/18(月) 22:43:42
NASの移行考えているけど、rsyncよりいい方法ない?
ベンダー製品はタケーし
722 :
名無しさん@お腹いっぱい。:2009/05/21(木) 18:20:04
>>721 なんでrsync以外のものを探しているのか書かないと誰からもレス付かない予感
>>721 一回こっきりのデータ移行ならrcp,scpとか
724 :
名無しさん@お腹いっぱい。:2009/05/23(土) 08:06:33
NFSのクライアント側でのデータ本体(メタデータ部分ではなくて)
のキャッシュって Linux だと FS-Cache というのが標準的
なんでしょうか?
725 :
名無しさん@お腹いっぱい。:2009/06/11(木) 10:50:00
LinuxでNFS4はいつまでexperimentalなんだよ〜
NFS4ってステートレス、Kerberos認証があるとかは分かるんだが、
この他にNFS3と比較してパフォーマンス面などで有利な点はあったりする?
今自宅のLinuxマシンのファイルサーバをNFS3で運用しているんだが、
小規模な構成でもNFS4を使う意味があるなら移行しようと思っているので。
>>727 トンクス。
やっぱり今の段階ではあまり移行する意味は無いんだな。
exportするディレクトリを一々bindマウントするのも面倒だから
あと数年はNFSv3で頑張ることにするわ。
>>726 > NFS4ってステートレス、Kerberos認証があるとかは分かるんだが、
v3に追加されたのはステートフルの方です。
NFSは昔からステートレス。
Kerberos認証も昔からありました。(v2でも運用経験あり)
ステートフル以外にもcompound operationがあるので、
v4は速度的に有利ですが、
Linuxその他PC-UNIXなら速度以上に枯れたNFSスタックを使うことが優先では?
NASサーバ+Solarisクライアントならv4の方が速いですが。
結局Linuxにしても*BSDにしても、
パフォーマンス改善やるほど人手がない感じですね。
Linux使った商用NASサーバあたりは自前のNFSスタックです。
730 :
729:2009/06/14(日) 14:18:26
< v4に追加されたのはステートフルの方です。
の間違い
>>729 ステートフルと書いたつもりだったのにtypoでした。
色々と参考になる情報ありがとうございます。
やっぱり今でもNFSはお膝元のSolarisが一番なんですね。
自宅で夫婦2人で2TB程度のLinuxファイルサーバにアクセスする程度なんで
そこまで枯れてなくても良いんですが、パフォーマンスが出ないようなので。
NFSのユーザが少なくなってきたからなのか、寂しい限りです。
>>夫婦2人で
ステートフルよりハートフル
俺は今年もハートレス
>>731 でかいファイルのコピーに限れば、
sambaの方が速いケースもあります。
735 :
名無しさん@お腹いっぱい。:2009/06/23(火) 05:17:58
ポートの制御がしやすいからNFSv4のほうが好きだな。
男らしく / ごと export してるぜ。
男らしくっつーかNFSv4のダメなところをしかたなくそれで対処してるじゃん
ファイル転送ならば無理にmountしなくても
ftpかsftp でいいんじゃないかと思うのですが...スレチごめん
738 :
名無しさん@お腹いっぱい。:2009/06/24(水) 21:21:38
任意のタイミングで意図的にgetattrさせたいのですが良い仕組みはないでしょうか?
できればシェルスクリプトとかPerlで出来ると嬉しいのですが・・・・・
つ stat(2)
740 :
名無しさん@お腹いっぱい。:2009/07/10(金) 10:22:18
NFS サーバ側からのコマンドか何かで、どれだけの NFS クライアントが現在
マウント中かを見ることってできますか?サーバは Linux です。
showmount
クライアントが落ちたりしてもそのままだし当てにならんよ
>>741 「現在」マウント中かを見ること
showmountでは、「過去」のmountまですべて表示される。質問欲嫁。
>>743 > すべて表示
「すべて」は表示されんよ。mountしてからちゃんとumountしてみ。
>>744 umountしても shoumountには表示される。当然何度も試した。常識。
それがステートレスというもの。サーバー側にはmount中かどうかは原理的にわからない。
俺も試してから言ってるんよ
ちなみに、RFC 1094 の A. あたりに、
mount/umountに関連したプロトコルは定義されてるから、
それをちゃんと実装してあれば、不確実かもしれないけどマウント状態は把握可能。
umount の時点で UMNT procedure を発行する OS を見たことがない。
もし存在するなら、その OS を教えて欲しい。
あぁ、FreeBSDはてっきりnfsレベルでやってるのかと思ってた。
調べたらumountが直接RPCMNT_UMOUNTを送ってて、
mountdがmounttabから消してるわ。
ともかく、umountすればshowmountから消える実装はあるってことで。
>>745 > umountしても shoumountには表示される。当然何度も試した。常識。
> それがステートレスというもの。サーバー側にはmount中かどうかは原理的にわからない。
どれだけ理解が出鱈目なんだよ、お前は。
>>749 umountシステムコールのレベルじゃやってないよね。
スレのレベルに恐れおののきながらNFSを初めて使った者が質問します。
サーバ側 Mac XServe、クライアント側 Linuxなのですが、
サーバ(XServe)を再起動などして接続が一旦切れてしまった後、
クライアントが自動的に再度正常にマウントしてくれず↓のような状態になります。
# df /XServe
ファイルシステム サイズ 使用 残り 使用% マウント位置
192.168.11.3:/Volumes/export
- - - - /XServe
もちろん正常な場合にはサイズ、使用容量などの数字が表示されるのですが。
この状態のとき
○ ls するとマウントポイントも見えなくなっている
○ 手動で umount → mount をやると正常に使えるようになる
○ コンソールや/var/log 以下にエラーメッセージは一切出ていない
という状況です。
マウントオプションは rw,hard,intr が指定されており、
もちろんfstabの指定でクライアント側の起動時にも正常にマウント & 読み書きできています。
サーバ復帰後、自動的に再度マウントさせるにはどうすればよいのでしょう?
あ、dfの表示が崩れてしまった。
要するに全項目「-」の表示になっていて
マウントポイントは /XServe です。
失礼しました。
>>752 とりあえずOSのバージョン位は書こうや
>>754 バージョン書いてもキミには答えられない
>>752 少なくともサーバ/クライアントの片側くらいは、
まともな実装にした方がいいと思われ
758 :
名無しさん@お腹いっぱい。:2009/09/12(土) 12:44:52
FreeBSDでは、touch -h コマンドなどで symlink自体のタイムスタンプを
任意の時刻に変更できますが、SolarisやLinuxでは出来ません。
ところが、SolarisまたはLinuxをNFSサーバーとして、
それをFreeBSD(NFS client)に mountして、
FreeBSD上で touch -h を実行すると、
Solaris(またはLinux)のファイルシステム上の symlinkのタイムスタンプを
変更できるのです。
これはどういうことでしょうか?
OSの仕様上、Solaris(またはLinux)ではsymlinkのタイムスタンプを
変更する手段がないのかと思ったらそうではなく、
NFSを通せば変更できるとは。
ちなみに、Solaris(またはLinux)には lutimes()がないので、
システムコールではsymlinkのタイムスタンプを変更できません。
システムコールになくても、NFSを通すと可能になるって、
一体どういう仕組みでしょうか?
あと、Solaris(またはLinux)上で直接symlinkのタイムスタンプを変更するような
NFSの命令(?)を発行するにはどうすればいいですか?
>これはどういうことでしょうか?
そういうことです。
すみませんが詳しい方のみ回答をお願いします
futimes(2)はないの?
新しいLinuxならlutimes(3)はある。
>>761 futimes()はあるけど、これはシンボリックリンク自体を変更できないよ。
(lutimes()がないOSでもNFS経由でシンボリックリンクの時刻変更ができてしまう)
たぶん、システムコールは使ってなくて、
NFSサーバー専用の何らかのコールが存在してると踏んでいるんだけど。
>>761 futimes()はあるけど、シンボリックリンクそのもののファイルディスクリプタを
取得できないから、futimes()ではタイムスタンプ更新できない。
(symlinkをopen()すると、リンク先のファイルが開く)
>>762 utimensat(2) つかってんじゃねーの。
AT_SYMLINK_NOFOLLOWを指定して。
*at(2)系の必要性についてはPOSIXの解説でも読んで。
>>764 それも考えたけど、
(f)utimensat(2) を使っても symlinkのタイムスタンプは変更できないんだよ。
*at(2)系の必要性は(知ってるけど)今の問題には関係ないので置いといて。
AT_SYMLINK_NOFOLLOW
If pathname specifies a symbolic link, then update the times-
tamps of the link, rather than the file to which it refers.
だけど?
>>766 AT_SYMLINK_NOFOLLOW に対応していないOSでも NFS経由でタイムスタンプ更新できる。
AT_SYMLINK_NOFOLLOWは、fcntl.hの中で定義はされてるけど、
実際には機能しない。そのOSでも NFS経由でタイムスタンプ更新できる。
>>767 File systemごとに動作が違うだけでしょ。
>>768 そういう問題じゃないんだよ。ちょっと黙っててくれるかな。
ユーザにAPI提供してなくてもカーネルがNFSリクエスト見てやればできる。
>>770 ですよね。
で、そのNFSリクエストを具体的に知りたいんですが。
symlinkのタイムスタンプを変更するNFSリクエストを。
symlinkに対してSETATTR発行するだけですが。
>>772 ありがとうございます。
で、SETATTRを要求されたNFSサーバー側の rpc.nfsdは、
どうやってそれをカーネルに伝えていますか?
バックドアみたいなのがあるのでしょうか?
rpc.nfsdはプロセスコンテキストを提供するだけのスタブ。
環境を整えたらnfssvc(2)を呼ぶだけ。nfssvcは永久にリターンしない。
nfssvcは以降、カーネル内で全ての処理を行う。カーネル内なのでシステムコール
より粒度が小さいAPIを使用できる。
>>774 すると、NFSを使わずに、普通のユーザープログラムから
nfssvc(2)を呼び出せば、symlinkのタイムスタンプが変更できるのでしょうか。
symlinkのタイムスタンプ変更の際に、
nfssvc()に渡す具体的な引数ってわかりますか?
あと、nfssvcはLinuxの場合ですが、Solarisだとどうですか?
>>775 いや、nfssvcはFreeBSDの場合だ。
>>775 nfssvcはカーネル内でクライアントからのSETATTRを受け取りタイムスタンプをセットして
結果を返す。
普通のプログラムから(正しい手順で)呼び出してもrpc.nfsd相当のプロセスが産まれるだけ。
>>776 現在は知らないけど、linuxも何年か前はnfssvcだったよ。
nfssvcを呼び出すのではなく、
ユーザープログラムから直接SETATTRを発行するのが良いと思ってきました。
つまり、NFSマウントせずに、直接NFSファイルハンドルを取得して、
直接SETATTRを発行するようなユーザープログラムを作って、
symlinkのタイムスタンプを更新するのです。
これが可能なら、lutimes()がないOSでも、NFS exportしているファイルに限っては
自力でsymlinkのタイムスタンプを更新出来るようになると思いますが、
この理解で合ってますか?
また、そのようなプログラムって、どこかにすでに存在してたりしませんか?
つまり、NFSマウントせずに、ftpクライアントまたはsmbclientみたいなコマンド方式で
SETATTRとかを直接、インタラクティブに実行できるのが理想です。
>>777 > 現在は知らないけど、linuxも何年か前はnfssvcだったよ。
少なくとも2.6以降は基本的に/proc/fs/nfsd/*を使う。
システムコールならnfsservctl(2)。
外部ネットワークに公開しているWEBサーバA(多数)があります。
NFSサーバBをAとLAN接続し、
Aで /usr をBからリードオンリー、root_squash で
マウントし、仮に Aがクラックを受けても、
/usr 内を改ざんされないようにできないかなと考えているのですが、
こういった方法は可能でしょうか?
また、効果自体見込める方法でしょうか?
この方法に限らず、
/usr 内のデータとその他随時変更を行うようなデータを分断し、
運用管理面、セキュリティ面、
両方でメリットのあるような設定事例ってないでしょうか?
ご助言お願いします。
>>781 /usrをroot_squashでmountすると、
/usr/binなどにある set-UID rootのプログラムが正常動作しなくなるから、
その方法は不可。
/usrをリードオンリーでmountするのはOK。よくある一般的な方法。
Coda に乗り換えようと思うのだが。
あんなろくにメインテナンスもされてない実装に?
NFS サーバー : NetBSD 5.0
NFS クライアント: Debian lenny
このような環境で、NFSを運用したいのですが、asyncにすることは
できますか?
クライアント側で、 mount -t nfs -o async ... と書いても、
書かないときとパフォーマンスに変化が見られません。
サーバー側に設定が必要かとも思いましたが、どのように書くのか
見つけられませんでした。
よろしくおねがいします。
サーバで、async するように設定しないとだめぽ。
BSDの書式なら、/etc/exports に
/exports/dir -network 127.0.0.1 -async
みたいに書けばいいんじゃまいか?
786です
exports(5) を読んでも書いてなく、787さんのように書いてみたらmountdに怒られました。
vfs.nfs.iothreads=4 を試してみたのですが、変わらなかったです。残念。
/etc/exports を晒か、エラーメッセージくらい書けよ。
そうじゃなくて、NFS鯖の /etc/fstabに asyncオプションを付けるべきじゃないのか?
/etc/exportsとか言ってる回答者は無視が吉。
そもそも論なんだが、
asyncはやめておけ。
そもそも論だけど NFS で async もへったくれもあるかい…
って思うのは俺だけ?
786です。
遊び環境ですね。古いPCにNetBSDをいれて遊んでます。
fstabで、softdepをはずしてasyncにしてみたらどえりゃー速くなりました・・
どうもありがとうございます。
ファイルシステムのasyncとNFSのasyncって同じなんでしょうか?
ぜんぜん違う階層だと思ってました。
そか・・・NFSもファイルシステムか・・・
>>794 違う階層だよ。違う階層だからこそ、1番ネックになってる下の階層でasyncしないと
効果が見えないと言う話。
ユーザ領域をNFSでマウントしてるんだけど
quotaかけるってことできますか?
できる
できない
もちろんできる。
>>799 嘘書く時はちゃんとオチを用意しとけよw
どちらとも言えない
できました! ありがとう
彼女が妊娠しますた。
mountした結果ですな
foreで? それともback?
俺がintrしといたけど
関係者にはWallしておくように
つまんね。
DNA.exeが非同期書き込みになっていたのと排他書き込みに問題が発生したのですね。
久しぶりにnfs使ったら無茶苦茶速いしCPU負荷もぜんぜんかからないのね。
マシンの性能が良くなったからかnfsが良くなったからか判らないけどnfsは
遅いってイメージあったからびっくりした。
>>810 なにと比較してNFSのほうが速かったの?
iSCSIより速くて驚いたなら興味ある
SunOS4の時代のsum4mとか
hosts.denyで
ALL: ALL
hosts.allowで
lockd: xxx
portmap: xxx
rpc.mountd: xxx
rpc.statd: xxx
rquotad: xxx
としてますがxxxからnfsをマウントしようとするとはじかれてしまいます。
hosts.denyを
lockd: ALL
portmap: ALL
rpc.mountd: ALL
rpc.statd: ALL
rquotad: ALL
とすればマウントに成功します。
上記以外に、どのサービスのアクセスを許可する必要があるのでしょうか?
OSはdebian/lennyです。
rpc.nfsdはどうした?
rpc.nfsd: xxx
をhosts.allowに追加しましたがマウントできませんでした。
じゃなくて、rpc.nfsdも必要だろ、と言ってるだけ。
mountできるかどうかは別問題。
/etc/hosts.allow
lockd: xxx
mountd: xxx
portmap: xxx
/etc/hosts.deny
ALL: ALL
でマウントできるようになりました。
最低限許可しないといけないのが上記3つなようです。
やはりhosts.denyではALL: ALLが良いかと。
statdがないと、サーバがダウンした後の
クライアント側の復旧に失敗するよ。
まあクライアント側も、再起動すればいいけども。
(書き込み要求があってもそれは捨てることにして)
debian/lennyだと以下を許可すればnfsをフルに使えそうですね。
lockd
mountd
portmap
rquotad
statd
rquotadはファイルシステムクォータというのを利用する場合に必要だそうで。
statdはlockdとともに動作してクラッシュ回復に使われるとか。
結局、問題だったのはmountdなどバイナリファイル名がrpc.mountdだったとしても、hosts.allowでは
mountdを許可するようにしないといけなかったことでした。
なんか礼儀がなってないような気がしないでもない
debianだとtcpdchk, tcpdmatchってコマンドがあるでしょ。
/etc/exportsでアクセス制御できるのにtcp_wrappersなアクセス制御に
介入されるのは不幸な気がする
>>823 んならlibtcpdリンクせずにビルドすればいいんでね?
クライアントマシンからログインした際、ファイルサーバのディレクトリをホームディレクトリとしたいのですが
.bashrcなどのファイルをコピーして、/etc/passwd内のホームディレクトリの場所を書き替えるだけでよいのでしょうか?
おk
>>822 tcpdchk関連でtlid.confという設定ファイルがでてきたのですけど、これはなんですか?
ネットで検索してみたけどでてこない。
家の環境に入ってなかったですし。
829 :
名無しさん@お腹いっぱい。:2010/04/09(金) 11:18:05
NFSv4で6台のクライアントにサービスを提供しています。
数年間にわたってうまく動いているのですが高負荷時に
サーバ側のログ(dmesgで表示されます)に次のようなメッセージが出ます。
NFSD: setclientid: string in use by client
これは何が問題なのでしょうか?
サーバ、クライアント共に CentOS 5.4です。
気にすんなw
気になるならRFC 3530の8.1.2, 14.2.33辺り。
それぐぐって何番目に出た?
つまりはそういうことだ。
解答能力のない人には聞いてないんで。。。
linuxのNFSは独自実装なのだから、この板で質問するのが気違い。
>>835 おまえ、カーネル2.0時代の知識のままで止まってるだろ
でもあの糞みたいなVFSレイヤにNFS載せてるんだからなあ……
どんな点が糞なの?
>>838 struct *_operationsの切り方が変すぎる。
Solarisとかの実装を知ってると、どうやったらそうなるのかと言いたくなる。
841 :
名無しさん@お腹いっぱい。:2010/05/06(木) 17:01:32
ホームディレクトリをNFS上に置きたいのですが、ネットワークがつながらなかった場合など、NFSに接続できない場合の
対処はどのようにしたらよいのでしょうか?
>>842 冗長化等でネットワークにつながらない状態を作りにくくするのが
基本だと思う。
>>842 どうしたらいいかってより
どうしたいのかじゃね。
>>843 そういう基本対策は別途行なうとして、
それでもNFSがつながらなかった場合にどうするかを聞いてるんですが・・
どうしたいのか
>>845 そんなの環境によるよ。
「ユーザにごめんなさいする」って手もあるんだぜ。
IDが出ない板はやりたい放題だな。
>>842 ユーザにごめんなさいするんだよ。
それがイヤだったり業務上の損失が大きいならちゃんと予算積んでNWやNFSサーバの
冗長化をしてリスクを下げな。
ホームをNFSに載せること自体が目的じゃないならNFSをやめるのも手。
所詮NFSは手段だから、どうしたいのか、どうあって欲しいのかによって
色々な部分が変化してくるだけの話。
>>850 「どうしたいのか、どうあって欲しいのかによって色々な部分が変化してくる」
なら、そのすべての(回答者が知ってる)変化を回答すればいい。
たいてい「どうしたいのか」とか聞き返す回答者は
実は答を知らない場合がほとんど。
ユーザにごめんなさいする
>たいてい「どうしたいのか」とか聞き返す回答者は
>実は答を知らない場合がほとんど。
4.主観で決め付ける
>>852 その回答つまんないから何度も書かなくていいよw
>>845 NFSがつながらなくても平気なNFSクライアントを設計・実装しておく。
期待してるよ。
>>855 「期待してるよ」じゃなくて、現状ホームをNFS上に置いてる人が
どういう対処をしているか聞いてるんですが。
実際に対処をしている人のみ回答ください。
なんだいつもの荒らしにすりかわってたのか。
クライアント起動時ならNFSマウントのところでストールさせる
クライアント起動後にNFSが落ちたならハングアップさせる
対処しようがないからうちはこんな運用
hard mountのデフォルトの挙動じゃん。。
861 :
名無しさん@お腹いっぱい。:2010/05/08(土) 06:38:58
exportsとautofsどっちをつかってる??
>>861 それを言うなら、fstabとautofsどっちをつかってる? だろ。
exportsはどちらであっても必要。
もう面倒だからSMBにしちゃおうっと
865 :
843:2010/05/08(土) 15:17:01
俺にスルー力がなかったばっかりに・・・、みんなすまん。
>>861 多少資源は食うがfstabの方がautofsよりもレスポンスがいいので、できることなら
そっちがおすすめ。しかも数GBもメモリを積める今の時代fstabで消費する資源の量など
微々たる物。
ユーザーが1000人いてクライアントが1000台あったら
1000人分の$HOME情報が1000台のfstabに記述され、
1人しかログインしていなくても残り999人の$HOMEも常にマウントされ、
ユーザーに変更があったら1000台分のfstabを修正するのですね、
わかります
ユーザーごとじゃなくて、その親ディレクトリをマウントするだろ普通w
>>868 ユーザーが多数いると親ディレクトリは共通じゃないのが普通。
NFS鯖もユーザーごとに違ったりする。
結局ユーザーごとにマウントすることになる。
それはユーザのホームディレクトリを一律/home/${USER}で見せるようにしたい場合限定
いまどきホームディレクトリを一律/home/${USER}で見せない運用なんてないだろ
fstabとautofsの両方に同じマウントの設定をするときってどういう時ですか?
exportsに192.168.0.*のようにワイルドカードで書けないのでしょうか?
>>875 Linuxなら、192.168.0.0/24 と書ける。
そんなことは百も承知
FreeBSDなら
-network 192.168.0.0 -mask 255.255.255.0
>>876 ありがとうございます。今環境がないので後で試してみます。
>>877 は私じゃありません。
amdとautofsはどのように使い分ければよいのでありますか?
>>881 使い分けるもなにも、*BSDではamdしか使えないのでは?
SolarisやLinuxではautofsしか使えない。
885 :
名無しさん@お腹いっぱい。:2010/05/18(火) 04:50:39
いかがもなにも、*BSDではamdしか使えないのでは?
amdはマウントポイントが変になるから美しくないなぁ
887 :
名無しさん@お腹いっぱい。:2010/05/18(火) 21:43:23
・・・流れからすると、やはりWindowsのSFU(厳密には違いますが)の質問はNGでしょうか?
Windowsをサーバ、LinuxをクライアントとしてNFSで繋ごうとと思っているのですが、ちょっと躓いてしまいまして・・・。
そもそもUNIX板だし
Windowsの方で聞いた方がいいんじゃね
sambaじゃだめなの?
俺もCIFSでマウントする方が早いと思う。
まぁ、要件があるんだろうけど。
891 :
887:2010/05/19(水) 20:40:36
まぁ、ポート455と2049、どっちを開けるのがマシかって話なんですけどね。
・・・sftpのサーバ立てさせるように説得してみようかなぁ?
ちなみに、どーしても満たさないといけない要件は
「Linux側のシェルスクリプト(bashの予定)でファイルの転送、およびWindows Server側のファイルのリネーム・削除が出来ること」
で、「2003以上ならSFUが標準でついてるぢゃん」となった訳デス。
そういう要件だとCIFSとかNFSみたいなネットワークファイルシステムは使わないで、
ファイル転送した方がいいんじゃないかなあ。
普通は気にしなくて大丈夫だけど、クライアント側のキャッシュがちょっとこわい。
893 :
foo:2010/05/19(水) 23:15:43
>>891 linuxからsmbclient使ってるけど、
よいよ。
894 :
名無しさん@お腹いっぱい。:2010/05/20(木) 07:30:12
ftpじゃだめなの?
親切な人が集うスレだなw
897 :
887:2010/05/21(金) 10:49:26
お返事ありがとうございます。
>>892 確かにこの構成だと、NFSの遅延がはっきりと体感できます。
ちょっと心配になりますね。
>>893 外にも繋がる環境なので、138や445は開けたくないということです。
私も、このポートを開けるのは少々躊躇してしまいますね。
>>894 ↑ということなので、少なくとも素で21は開けたくないです。
やるとすればsftpですね。
>>895 うーん・・・。これからのことも考えると、既にメンテされていない(少なくとも6年Ver.upのない)プロダクトを使うのは少々躊躇われますね。
使うとすればこちらかな?
http://www.freesshd.com/index.php
> ↑ということなので、少なくとも素で21は開けたくないです。
ftpなら自分の好きなようにポート変えられるじゃん
つか、「外にも繋がる」って、
普通138や445は外には流れないように設定するだろ?
ルーターとか使ってないの?
うちは全部有線LANなのでルーターは使っていません
「全部LAN」なら
「外に繋がって」ないじゃんw
うちのLANは全部有線なのでルーターは使っていません
最近は無線LANの中継装置をルータというのか。勉強になるなあ。
うちの無線は全部ルーターなのでLANは使っていません。
>>887 いったい何をしたいんだw
手法は書いてあるが目的がよーわからん
905 :
foo:2010/05/21(金) 22:58:12
win の iis で ftps やるなど?
906 :
887:2010/05/23(日) 13:03:59
>>906 >
>>891にも書いてありますが、
それは「手法」であって、手法を書かれても目的がわからない、
ということだが、、
目的を書けば別の手法を答えるつもりなんでしょうか。
この手法自体が要件なので、それでは参考になりません。
910 :
887:2010/05/23(日) 16:57:48
うーん、やはりSFU関連の話題はタブーなんでしょうか。
ちなみに
>>908も私ではありません。
>>907 ということでしたら、「目的」はLinux側のバックアップです。
計画に沿った(Linux側の)バックアップ実行と圧縮、ファイルのコピーと世代管理を全てLinuxのシェルスクリプトで一貫してやりたいので、mountした上でファイルシステムとしての操作をしたいのですよ。
本来ならそれ用のサーバなりNASなりを用意するのが本当なのでしょうが、今のところ使える資源がWindowsServerしかないのです。
やはり、(IIS以外の)SFTPサーバをWindows側に立てたほうがいいのかなぁ・・。
他によいお考えがあればアドバイスをお願いしたかったのですが、ここはNFSのスレですし、一応はSFUのスレもあるということなので、今回はこの辺で失礼しましょう。
スレを荒らしてしまい、申しわけありませんでした。
>>910 となるとやっぱりLinux側からsmbで
Win側をmountするのが楽かなと思うけど。
Linux側からリネームしても問題ないべ?どうよ?
(s)ftpじゃbashしにくいような気も。
もうsambaでやれば良いじゃんって回答で完了だろ。
何をぐたぐだやってんだ?タコ。
うん。
普通はsmbmountでやる作業だと思う。
なんで普通の方法じゃダメなんだろ。
質問者(と回答者の一部)が、sambaとsmbmountを混同していて、
「sambaじゃ駄目」と思ってる悪寒。
まぁ、誤解を避けるならCIFSって言う感じか?
状況が許すならクライアント/サーバの役割を柔軟に考えた方が簡単だよ、
って話だな。
やっぱり混同してる回答者が出てきたw
自己紹介乙
>>914 つか
単に質問者が UNIX関連 = SFU と思い込んでしまって、
「Windowsの共有フォルダはsmb/cifsでLinuxにマウントできる」
という基本的な事実に気付いてないだけだろうな。
→ mount cifs をぐぐれ
しかし、本当に面倒見のいい人が集まったスレだね
まるっきりスレ違いなのにww
nfsなんて好き者が使ってりゃいいのさ。
おいらみたいに。
手段の為なら目的を選ばない。
923 :
名無しさん@お腹いっぱい。:2010/08/10(火) 15:37:01
CentOS5.5のマシンでNFSを構築したのですが、rwで共有したはずのディレクトリに書き込みができません。
【NFSサーバー側 192.168.0.5】
# cat /etc/export
/export/rw 192.168.0.10(rw)
# cat /proc/fs/nfs/export
/export/rw 192.168.0.10(rw,root_squash,sync,wdelay,no_subtree_check)
【クライアント側 192.168.0.10】
# mount 192.168.0.10:/export/rw /mnt/nfs/rw -t nfs -o rw
# cd /mnt/nfs/rw
# touch test
touch: cannot touch `test': 読み込み専用ファイルシステムです
# cat /proc/mounts
(中略)
sunrpc /var/lib/nfs/rpc_pipefs rpc_pipefs rw 0 0
192.168.0.5:/export/rw /mnt/nfs/rw nfs ro,vers=3,rsize=32768,wsize=32768,hard,intr,proto=tcp,timeo=600,retrans=2,sec=sys,addr=192.168.0.5 0 0
…という具合にrwで共有されてるにも関わらずroでマウントされてしまいます。SELinuxとiptablesは無効にしてあります。
やった事は/etc/sysconfig/nfsを編集して各ポートを固定化し、/etc/exportsに上記のように記述。/etc/hosts.allowに下記を追加。最後にportmap、nfslock、nfsの自動起動設定を行い再起動しました。
更に時々正常に書き込みができる事もあったりしてもうよくわかりません。よろしくお願いします。
# cat /etc/hosts.allow
portmap :ALL : allow
lockd :ALL : allow
mountd :ALL : allow
rquotad :ALL : allow
statd :ALL : allow
>>923 別の問題だけど、とりあえず root_squash は no_root_squash に変更しとけ。
rootで書き込めなくなるぞ。
>>923 >【クライアント側 192.168.0.10】
># mount 192.168.0.10:/export/rw /mnt/nfs/rw -t nfs -o rw
↑
自分をマウントしてどうするw
↓じゃないの?
# mount 192.168.0.5:/export/rw /mnt/nfs/rw -t nfs -o rw
>>925 ごめんなさい、これは単純な記述ミスです。
# mount 192.168.0.5:/export/rw /mnt/nfs/rw -t nfs -o rw
を実行してさっきの症状です。
NFSサーバー側の /etc/exportsの
/export/rw 192.168.0.10(rw)
っていう記述、本当は 192.168.0.10 のところをホスト名で書いてるんじゃないの?
で、そのホスト名の名前解決が不安定(2種類以上のIPが引けるとか)で、
192.168.0.10じゃない方が引けた場合はデフォルトで ro で exportされると。
>>927 なるほどと思ったのですが残念ながらホスト名では無くさっき書いた通りのIPアドレスで指定しています…。
ただこのサーバーにはIPが3つぐらい指定されているのでもしかしたら関係あるかも…?
>>924 了解です。その設定もしておきます。
>>923 > # touch test
> touch: cannot touch `test': 読み込み専用ファイルシステムです
これrootで実行してるんでしょ?
>>924 別の問題じゃないような…
930 :
923:2010/08/10(火) 18:38:07
>>929 はい、rootで実行しています。
>>924のno_root_squashを設定してみたのですが状況は変わりませんでした…。
931 :
923:2010/08/10(火) 19:41:31
なんか固定したポート番号を少し変えたらとりあえず直ったっぽいです。
やはりGMOはGMOだったのか…。変なパケット流れてくるし、ネットワーク側の問題だったようです。
どうもありがとうございました。
932 :
923:2010/12/14(火) 17:13:36
一応その後の報告ですが、GMOが内部で使っている176.16.X.XというローカルIPをやめて、NFSとそのクライアントの2つのサーバーに10.x.x.xの全く使われていないIP帯を降り動かしてみるとここ3ヶ月ぐらい落ちることはありません。
やはりGMOが引いたネットワークに原因がありそうです。
(最初は2つのサーバーをハブで繋ぎますという話だったけど、実は他のサーバーと共用のハブだったなんて…。)
GMOってことはホスティング?
契約ホスト用の裏セグメントとして出してきたポートが他の契約者と
共用だったとかならGMOおかしいだろになるけど、923が適当に
プライベートアドレス使ってプライベートセグメント!とか
やってるだけじゃないだろうな・・・
934 :
923:2010/12/24(金) 17:27:43
>>933 ローカルアドレスはGMOから渡された時点で降られてたIP。
どうもGMOの管理ツールでそのIP帯が使われてるらしくこれを変更すると一部サービスが受けられなるなるから変えないで下さいって言われた。
935 :
名無しさん@お腹いっぱい。:2011/01/26(水) 15:15:18
メンテなどでNFS鯖を再起動した時、statdからのエラーログが多量に出るのは
何とかならんものか? これが役に立った試しがないんだが・・
クライアント側のopen状態の復旧に失敗した可能性があるよ。
まあクライアント上のアプリの不具合は無視していいならそれでいいんじゃない?
>>936 いや、なんの状態復旧にも失敗していなくてもログは出る。
クライアントからNFSサーバーの生死を判定するうまい方法ってないでしょうか?
ログインスクリプトで、NFS鯖が死んでる時には、そのディレクトリをPATHに入れないとかやりたいんですが。
ping打ってもタイムアウトまで長いこと待たされるし。一瞬で生死判定できるとうれしいです。
ping -w 1
>>939 早速のレスありがとうございます。
ただ使ってるOSがHP-UXの古いやつで
pingのタイムアウトが指定できないんですよ...
もっとましなpingインスコするしかないかな。
なんかステータス取るようなコマンドないものかな?
pingで判定って荒っぽいな。
鯖側でNFSだけが氏んでてもアウトになるしな。
強引すぐる。
NFSはステートレスであることが最上位にきます。
ファイルシステムの安定供給。
障害になれば鯖にみんなRPC要求送りつける。
パブリックユーティリティであるという点がNFSのDNAです。
その鯖の上で動作するOSには高い可用性やLAN的使命感が求められます。
>>938 wget で timeout 指定して5分毎に監視する。
アクティブに umount -l/mount を行う。
947 :
名無しさん@お腹いっぱい。:2011/07/26(火) 21:35:55.02
NFS経由で posix_acl_accessが使える状態になっていて、
実際ACLは使えることを確認済みです。
ところが、NFS経由でcapabilityが機能しません。
posix_acl_accessもcapabilityもgetxattr()を使って
同じように拡張属性を取得しているいるはずですが、
何か違うんでしょうか?
security.capabilityはgetxattrできてる状態?
kernelのcapability機能は有効になっている状態?
capalibityライブラリの設定は充分な状態?
>>948 当然できてる。
というか、そのレベルの話じゃなくてその先のことがわかる人だけに質問したい。
態度でけえなーw
>同じように拡張属性を取得しているいるはずですが、
確認してもいないことを「はず」とか書かれても。
ああ、確認できるだけの技量がないのか。じゃあ仕方ないね。
まあ頑張り給え
ここで「うわーんできないよー」って泣き叫んでるだけじゃ問題は解決しないしなw
>>955 ん?
問題を解決するための質問ではないんだが。
>>955 にはそれも理解できなかったかw
いずれにしても詳しくない者は黙ってろ。
まあ頑張り給え
久しぶりに香ばしい野郎が来たなw
まあ頑
はってみた
ぼんぼれ
ubuntuでのautofsの設定がわかりません。
順を追って解説してあるサイトを教えてください。
独島は日本の領土
ggrks
Network Foshu System
964 :
名無しさん@お腹いっぱい。:2011/12/03(土) 23:41:32.20
NFSマウントしたHDDをfsckする方法を教えて下さい。
いろいろオプションとか試してますが今のところうまくいきません。
NFSクライアントでfsckしたいとかムリだからw
NFS4.1のパラレルNFS使ってる人居ますか?
日本語の文献が余り無いんでRFC読んでみようと思ったら書き方が
回りくどすぎて読み辛くて途中で投げだした
なので実際使ってる感想や注意点や参考になるサイト、文献があったら
教えてください。出来れば日本語がいいけど英語でも構いません
自レスだけどpNFSのWikiにそれなりに情報あったっす
コレ見ながらやってみるー
968 :
名無しさん@お腹いっぱい。:2012/05/18(金) 09:21:26.51
Ubuntu 12.04でNFSサーバを立ちあげようとしています
NFSのプロトコルバージョンってどのように調べればよいのでしょうか?
すみません。OSはFreeBSD(98)です。回答をお願いします。
971 :
名無しさん@お腹いっぱい。:2012/11/04(日) 02:28:49.26
Winodws8で、Ult以下は地味に非対応にされてる件について
972 :
名無しさん@お腹いっぱい。:2012/11/25(日) 13:31:34.53
pNFS難しすぎてできねー
どこかによい日本語のない?
♪∧,,∧
♪∧,,∧・ ω・)
∧,,∧・ ω・) )っ
(・ ω・) )っ__フ
(っ )っ__フ(_/彡
( __フ(_/彡
(_/彡♪
Gentoo(カーネル3.6)のサーバで公開しているNFSv4(ro,wdelay,no_root_squash,no_subtree_check,mountpoint,sec=sys,ro,no_root_squash,no_all_squash)を
Debian(カーネル2.6)のクライアントでNFSv4(rw,relatime,vers=4,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.0.66,minorversion=0,addr=172.25.13.50)マウントすると
ファイルのオーナがnobody:nobodyになります.いくら権限を変えても,新しいファイルを作ってもオーナはnobodyのままです
原因のわかる方いらっしゃるでしょうか
974 :
973:2012/12/01(土) 20:42:14.19
ぎゃあIP消し忘れた.
プライベートIPだから別にいいけど
idmapd の設定、やってないでしょ
Linuxだとnoacは意味がない
覚えておけよ。
俺もWindowsのNFSマウントしたときにそうなったなぁ。
idmapdの設定やってみよ!
そろそろ?
次スレの準備が必要でしょうか?
それとも,もうこのスレだけで終わり?
おわり
話すネタがあるなら立てたまえ。
終わり。
Fin.