【2ちゃんねるビューア】 巡回機能の巻。Part3
UpTime(game) = 1:09am up 10 days, 15:40, 0 users, load average: 30.06, 35.88, 28.01
UpTime(game) = 1:22am up 10 days, 15:53, 0 users, load average: 19.78, 30.94, 37.58
UpTime(game) = 1:37am up 10 days, 16:08, 0 users, load average: 8.67, 11.78, 22.07
UpTime(game) = 1:43am up 10 days, 16:14, 0 users, load average: 10.15, 10.11, 17.83
UpTime(game) = 1:52am up 10 days, 16:23, 0 users, load average: 10.24, 9.69, 14.31
おいおい… ひろゆきと考えの差が随分出るもんだ…
ん?夜勤さんもしかして、手動じゃなくて 自動書き込みのスクリプトで書いてる?
こんばんは。
423 名前:心得をよく読みましょう 投稿日:2002/03/25(月) 18:49 ID:adyfkZPq
>>422 うん。
html:5264195
read.cgi:6114543
bbs.cgi:449721
.dat:3449724
.dat.gz:66991
txt:706191
all:16051365
こんなかんじです。
これ見てて思ったのですけど、単純な発想ですと、
過去ログをどこか別のサーバに移せれば、1/3のリクエストが軽減するんですねぇ。
(妄想)
>470 増え続けてるってこと?
html は index.html , subback.html じゃないかな、ほとんど。
>>472 もちろん、
特に先週あたりからの増加はすごいぞ。
ねずみもまっつぁおー
UpTime(game) = 2:06am up 10 days, 16:37, 0 users, load average: 8.17, 10.26, 12.01
UpTime(game) = 2:15am up 10 days, 16:46, 0 users, load average: 8.19, 8.41, 10.28
夜勤さんgccとzlib使える環境は持ってるわけだから、Compress::Zlib モジュールを
コンパイルして、どこか書き込み権限持ってる適当な場所にインストールしたらどうでしょうか。
bbs.cgi の中で
use lib "/home/yakin/lib/perl"; # Compress::Zlib モジュールを置いた場所を指定
use Compress::Zlib;
とすれば、perlプロセス内でgzipできます。
>>440 あたりが参考に
外部プロセスを呼ぶよりも負荷は明らかに低いから、是非やった方がいいと思います。
>>474 ああなるほど、そうですか〜。そうですよね・・・
UpTime(game) = 2:25am up 10 days, 16:56, 0 users, load average: 7.07, 7.85, 9.12
*.htmlって現状では"Last-Modified"を吐き出してませんが,
これは恐らく*.htmlが"server-parsed"になっているためだと
思うのですが,SSIを使う必要がなければこれをoffにすれば
Apacheが余計なparseをせずに済むようになって負荷が減るのと,
"Last-Modified"を吐くのでブラウザ側でのキャッシュが効くように
なると思うのですが.
ところで,
>>422 を改造して,daemonizeして非同期実行させた上で,
5秒ぐらい待ってその間に発生した圧縮処理を1つにまとめてしまうというの
書いたんですが,bbs.cgi内部でindex.html等のロックをどうやっているかが
わからないとmmap()したところを読み出す時に死ぬかも......
UpTime(game) = 2:35am up 10 days, 17:06, 0 users, load average: 8.97, 8.02, 8.57
UpTime(game) = 2:49am up 10 days, 17:20, 0 users, load average: 7.24, 7.72, 8.10
486 :
479 :02/03/25 19:54 ID:???
あ、
>>440 を参考になんて書いちゃったけど、実際にはメモリ上のイメージから
非圧縮形式と圧縮形式で書き出さないと無駄なアクセス発生しちゃいますんで。
↓イメージとしてこんな感じで
use Compress::Zlib;
my $subjectContent = 'hogehoge' x 1000;
open(FILE,">subject.txt");
print FILE $subjectContent;
close(FILE);
open(FILE,">subject.txt.gz");
print FILE Compress::Zlib::memGzip($subjectContent);
close(FILE);
UpTime(game) = 3:04am up 10 days, 17:34, 0 users, load average: 147.13, 62.36, 28.20
UpTime(game) = 3:13am up 10 days, 17:44, 0 users, load average: 95.67, 49.60, 34.22
UpTime(game) = 3:27am up 10 days, 17:58, 0 users, load average: 13.45, 21.31, 28.04
UpTime(game) = 3:31am up 10 days, 18:02, 0 users, load average: 8.56, 8.68, 9.10
u-o
UpTime(game) = 3:32am up 10 days, 18:03, 0 users, load average: 52.34, 26.67, 27.43
robutって・・・(´д`;)
gameオモー。。。
スタンド攻撃を受けている?
UpTime(game) = 3:41am up 10 days, 18:11, 0 users, load average: 35.05, 30.62, 30.99
UpTime(game) = 3:43am up 10 days, 18:14, 0 users, load average: 152.67, 76.56, 47.86
ところで、これ書いていってどうするんすか?>夜勤さん
ひとり千争
なんか分刻みでload averageがえらく違うんですが。。。
他でやれ
UpTime(game) = 3:50am up 10 days, 18:20, 0 users, load average: 36.03, 57.29, 50.66
150って凄まじい数字だな。 処理待ちになってるプロセスが150個あるってことでしょ? つまり、処理できる能力の150倍のリクエストが来てるわけだよね。
UpTime(game) = 3:56am up 10 days, 18:27, 0 users, load average: 29.57, 32.01, 40.63 それでは、そろそろ game サーバも変更します。
重くて 作業ができない・・・ 一旦 bbs.cgi とめます。
Benchmark: timing 100 iterations of mem, module... mem: 8 wallclock secs ( 7.85 usr + 0.25 sys = 8.10 CPU) module: 9 wallclock secs ( 8.36 usr + 0.22 sys = 8.58 CPU) (略) timethese(100,{ 'mem' => q{ open(TEST, ">mem_$k.gz") or die; print TEST Compress::Zlib::memGzip($file);; close(TEST); ++$k; }, 'module' => q{ my $gz = gzopen("mod_$i.gz", "wb"); my $byteswritten = $gz->gzwrite($file); $gz->gzclose(); ++$i; } });
>505ハァ?
game での作業完了。
512 :
あれ? :02/03/25 21:14 ID:???
Benchmark: timing 1000 iterations of mem, module... mem: 80 wallclock secs (78.24 usr + 1.93 sys = 80.17 CPU) module: 59 wallclock secs (57.48 usr + 1.10 sys = 58.58 CPU)
UpTime(game) = 4:14am up 10 days, 18:45, 0 users, load average: 100.07, 78.80, 61.01
The uptime utility displays the current time, the length of time the system has been up, the number of users, and the load average of the system over the last 1, 5, and 15 minutes. つまり、実行中のジョブの個数がload、アヴェレージは直近1分、5分と15分のものの平均値を 表示している。
UpTime(game) = 4:20am up 10 days, 18:50, 0 users, load average: 69.10, 64.96, 60.07
>>514 嘘ついちゃだめだよ。「実行中のジョブの個数」ってなんだそりゃ。
UpTime(game) = 4:25am up 10 days, 18:56, 0 users, load average: 24.08, 39.64, 51.18
>>514 「実行可能状態にあるジョブ」ですね。。。
ツールに対してしか使えないですけどdat落ちした過去ログを参照するときに キャッシュに強い proxy を自動的に通すことはできないでしょうかね? どれぐらい効果があるか分からないけど。
UpTime(game) = 4:30am up 10 days, 19:01, 0 users, load average: 17.99, 26.00, 42.58
>>512 自分の環境でも mem の方が遅くなるな。
Benchmark: timing 100 iterations of mem, module...
mem: 43 wallclock secs (42.64 usr + 0.45 sys = 43.09 CPU) @ 2.32/s (n=100)
module: 24 wallclock secs (24.28 usr + 0.31 sys = 24.59 CPU) @ 4.07/s (n=100)
てことで圧縮形式で出力する時は gzopen/gzwrite 使ってね>夜勤さん
>>522 トオルさんに教えてあげると、組み込まれるのが早いぞー
qb の jikken だったっけ、やってる板。
UpTime(game) = 4:35am up 10 days, 19:05, 0 users, load average: 20.77, 23.95, 37.35
ベンチマークとるたびに結果が変わるので、何とも言えないが Compress::Zlibの効果は微妙? (普通に使えば遅くはならないけど、劇的な効果は望めそうもない) Benchmark: timing 1000 iterations of mem, module, system... mem: 97 wallclock secs (94.47 usr + 2.34 sys = 96.81 CPU) module: 77 wallclock secs (74.29 usr + 2.50 sys = 76.79 CPU) system: 89 wallclock secs ( 0.17 usr 0.65 sys + 76.09 cusr 11.44 csys = 0.00 CPU)
load averageもいいけど、 システムの状態がよくわかるように、vmstat貼ってほしい loadavgだけでは、システムの状態がつかめない % vmstat 5 とか % vmstat 60 とかやって、まとめて貼るとかはだめなんですか
biwa35:~$ vmstat 5 procs memory swap io system cpu r b w swpd free buff si so bi bo in cs us sy id 3 0 0 0 32836 175116 0 0 7 4 13 15 8 14 9 1 0 0 0 40284 175116 0 0 64 70 1238 1837 79 21 0 7 0 0 0 37480 175116 0 0 40 24 1381 2079 76 24 0 4 0 0 0 44956 175116 0 0 169 99 1448 2083 72 28 0 5 0 0 0 40096 175116 0 0 25 374 1577 2308 72 28 0 1 1 0 0 43928 175116 0 0 36 59 1355 1909 74 26 0 7 2 0 0 22336 175116 0 0 166 453 1700 30029 66 34 0 10 0 0 0 17304 175116 0 0 67 452 1618 2096 65 35 0 続く。。。
4 0 0 0 7280 170004 0 0 116 403 1567 8150 68 32 0 7 1 0 0 3592 150532 0 0 73 504 1661 2438 65 35 0 0 1 0 0 10068 147896 0 0 47 674 1690 13880 68 32 0 10 0 0 0 7596 140624 0 0 140 498 1631 52737 61 39 0 14 2 0 0 11620 127952 0 0 241 744 1881 3155 60 40 0 9 0 0 0 27136 125724 0 0 178 324 1710 4372 64 36 0 0 1 0 0 33208 125724 0 0 77 633 1630 23248 66 34 0 4 0 0 0 30008 125724 0 0 98 585 1809 2972 67 33 0 0 0 0 0 35032 125724 0 0 58 434 1744 6085 71 29 0 2 1 0 0 260820 125724 0 0 133 282 1501 2009 65 35 0 0 0 0 0 390880 125724 0 0 39 400 1329 23170 80 20 0 1 1 0 0 342908 125724 0 0 17 9 898 739 84 16 0 1 0 0 0 300228 125724 0 0 76 151 1026 1081 83 17 0 4 0 0 0 255480 125724 0 0 130 27 1158 1123 77 23 0 7 1 0 0 225284 125724 0 0 209 212 1459 2023 72 28 0 4 0 0 0 192356 125724 0 0 28 190 1200 3723 75 25 0
UpTime(game) = 4:43am up 10 days, 19:14, 0 users, load average: 18.18, 21.42, 30.39
ビクッ. ∧ ∧ ∧ ∧ / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ Σ(゚Д゚;≡;゚д゚) < 暗号スレ迷い込んじまったぞゴルァ! ./ つ つ \______________________ 〜(_⌒ヽ ドキドキ ブッ ω)ノ `Jззз
>>527 実際はmod_perlじゃないから、
1) perlプロセス起動→gzipプロセス3つ起動
2) perlプロセス起動→Compress::Zlib 3回使用
のレベルでベンチマークとればそれなりに差はつくのではないだろーか
vipのfreeとか、見てみたいような、見たくないような・・・・(笑)
wani4:~$ free total used free shared buffers cached Mem: 516972 492820 24152 431004 10904 75264 -/+ buffers: 406652 110320 Swap: 130748 3360 127388
UpTime(game) = 4:57am up 10 days, 19:28, 0 users, load average: 23.13, 22.45, 25.22
夜勤 ★さんご苦労様です。動作報告-17-で拾いました。 746 名前:夜勤 ★ メェル:sage 投稿日:02/03/25 21:32 ID:??? UpTime(news) = 4:32am up 34 days, 17:55, 0 users, load average: 2.96, 3.14, 3.63 newsにもぶち込むのでしょうか?
>>538 いいえ、
news が落ちるかもとか言ってたから、だしただけですよん
もっとも軽いサーバの一つなのに。。。
>>539 確かに。。。
3とか、、、gameは100超えてるのに。。。
UpTime(game) = 5:08am up 10 days, 19:39, 0 users, load average: 13.08, 13.99, 19.56
542 :
538 :02/03/25 22:11 ID:???
レス有難うございます。 ですよねー。load average見て?と思ったので。 でわでわ。
UpTime(game) = 5:13am up 10 days, 19:44, 0 users, load average: 8.81, 10.74, 16.58
vmstat見たけど、凄すぎ・・・・ 思ったよりも、ハードウェア割り込みは少なかった。ハードがそこそこいいからかな システムコールとコンテキストスイッチの数がかなり多いね つーかシステムコール多すぎ
UpTime(game) = 5:25am up 10 days, 19:55, 0 users, load average: 15.87, 12.07, 13.91
結構 効果があったような気がしますが、どうでしょうか?
>>545 たしか game サーバは、P3 1G(dual) 1G(RAM) だったと思いますー
さらなる bbs.cgi の改良が必要なのかなぁ? どうなんでしょ。
http://www.yakin.cc/pv200201b.html
548 :
Dream ★ :02/03/25 22:31 ID:???
dat.gzは、作成にかかる負荷に対して、 リクエストが少ないような気がするのですが、そのあたりはどうなのでしょうか?
dat.gz は 過去ログ倉庫です。 html 化と同時に dat.gz を一気に作成しています。(すいてるときに) だから 普段は ただ読まれているだけかと、
PVあてをやっていた頃の負荷の大きかったサーバってどこでしょう? tv, game, natto鯖とpc鯖では傾向がちがうので(ツールとcgiの比率が) ある程度判断材料になるんではないでしょうか。
>>549 なるほど、倉庫なのですね。了解です〜。
(それにしても、意外でしたけど、過去ログ参照って、少ないものなんですね・・・)
gameサーバで家庭用ゲーム板だけ どっか空いてるサーバに移転て無理か・・・・・ あそこは年齢層低いからさ
>>550 どこだったかなぁ。。。
計測日が 1/20 だから、批判要望の過去ログをあされば
わかるかな? 私の記憶では、tv , music , comic あたりだと思ったけど、
UpTime(game) = 5:40am up 10 days, 20:11, 0 users, load average: 15.38, 12.45, 12.54
>>917 そいつ色んなスレで雑誌についてたってマルチしてた奴じゃないの?
何とかしてシステムコールを最小限にしたいけど、どうすればいいんだろ
read.cgiは最適化されてるから、apache、mod_gzip、bbs.cgiあたりが・・・
とりあえず、bbs.cgiは、このスレで出てるgzip圧縮プログラム使えば、
gzip圧縮の起動プロセス数が、3分の一になるから、トオルたんに試してもらいたいな
とりぜず、httpd.confいじるのはだめなんでしたっけ?
.htaccess ファイルを探すのを止めるだけで、1アクセスあたりのシステムコールがへらせそう
あと、mod_gzipのテンポラリファイル作成がかなりシステムコール食ってそうなんで、
スレッドのhtmlデータのgzip圧縮を、mod_gzipからread,cgiで圧縮するようにすれば、少しは軽くなりそう
>>548 dat.gz作成って、過去ログhtml化のとにのはずだから、アクセスの少ない時間にでもやればいいので、
べつに問題ないと思うけど
なんか見直せば分が変&まちがいだらけ・・・
>>555 >あと、mod_gzipのテンポラリファイル作成がかなりシステムコール食ってそうなんで、
>スレッドのhtmlデータのgzip圧縮を、mod_gzipからread,cgiで圧縮するようにすれば、少しは軽くなりそう
このへんって、具体的にローカルかなんかのベンチ結果って、出せるものなのですか?
Apacheのmod系って、重いとは聞いていますが、どうなんですか?
gz圧縮、、、 「ファイル作るときにzlibでまとめて圧縮する!」がおそらく最適で、で、 その最適を目指さないと逝けない状況な気がするん。
>>558 べつにapacheのmodが一般的に重いわけではない
mod_gzipは、圧縮にcpu使うし、テンポラリファイル作成するため、かなり重いシステムコールを
使うから当然重い
圧縮に、ユーザーモードでcpu使うのは仕方がないが、全体でシステムコールを少なくすれば、
ある程度軽くなるはず
具体的なベンチはないけど、mod_gzipくみこんだapacheに、apachebencheで、大量アクセスを
かけてみたら、システムコールが多く、カーネル時間消費が多かったから
httpd.conf の mod_gzip_maximum_inmem_size の値、どうなってるのかな? ファイルサイズがその値を越えると、mod_gzip はテンポラリファイルを 使うようになるから、あまりに小さかったら増やしてみては? ファイルアクセスがかなり減る。 って、httpd.conf はいじれないんだっけ。ごめん。
>って、httpd.conf はいじれないんだっけ。ごめん。 he.net の人にメールで交渉..というパターンだっけか 今の設定だけでも知りたいモナ
html bbs.cgi .dat .dat.gz cgi txt all corn.2ch.net (tv.2ch.net saki.2ch.net) ch2corn_50463__15761__101003___714____79604__15974__263519 ch2tv___259582__24102__231555___276__420190__40588__976293 saki_____136826______43_______731__3198___10688_____481__151967 446871 39906 333289 4188 510482 57043 1391779 ----- ebi.2ch.net (music.2ch.net) ch2music__174125__18252__93073___244__306574__22862__615130 ch2ebi_______56920____4301__26579__2735___65738___6648__162921 231045 22553 119652 2979 372312 29510 778051 ----- salad.2ch.net (comic.2ch.net) ch2comic 128533 19565 189210 586 236145 30555 604594 ch2salad 62818 2889 48805 2884 33204 5559 156159 191351 22454 238015 3470 269349 36114 760753 ----- natto.2ch.net ch2natto 255028 47208 196006 1855 355940 33491 889528 ----- pc.2ch.net ch2pc 161109 28413 441156 1465 325271 91938 1049352
564 :
563 :02/03/25 23:14 ID:???
確かvirtualhostの設定が
>>563 のようになっていたので集計してみた。
鯖のスペックの違いとかありましたっけ?
いずれにせよpc鯖はリクエストの割に軽そう。
mod_gzip_minimum_file_size 300 mod_gzip_maximum_file_size 0 mod_gzip_maximum_inmem_size 100000 UpTime(game) = 6:09am up 10 days, 20:40, 0 users, load average: 12.30, 12.75, 12.86
やっぱ、mod_readcgi作成が一番利にかなっているような。 ・プロセスが減る ・作りによっては、祭りスレの.datをキャッシュ出来る が、政治的な理由で(he.netとの絡みも含めて)難しいか。
>>565 夜勤さんありがとう。
100000byteか。この値で十分だと思う。
混雑時間帯には、read.cgi は最高100レスまでしか返さない。
100レスで約100kb越えるスレってAA系の板でもあまり多くない。
game での実験は こんなとこかな? どうでしょか? UpTime(game) = 6:32am up 10 days, 21:03, 0 users, load average: 15.18, 16.13, 15.36
>>561 じつは、mod_gzipのい設定でインメモリで処理するようにしても、
テンポラリファイルが作成される
インメモリで処理する場合、圧縮前のデータがテンポラリファイルに保存され、
圧縮後のデータにはテンポラリファイルは使われない
インメモリで処理しない場合、圧縮前のデータも圧縮後のデータも
テンポラリファイルが使われる
むかしのバージョンだと、ちょっと動作が違うけど、いまのバージョンでは
上の説明で多分あってるはず
bbspinkはいじりたくないんでしたっけ? vipなんか実験してみると変わりそうな気が?
>>569 マジ? ちょっと mod_gzip.c 読んでくる。
566さんのおっしゃる通りmod_readcgiなんか作ったら一番効果あるだろうね。 mod_perlだったら入れてくれるというなら、CでPerlのモジュール書けば ほぼ同じ効果が得られそうだし、bbs.cgiにも効果あるので一挙両得なんだが。
アパッチのモジュールを作る云々という話は かなーり昔に却下されたぞ。
>>573 いや、今はトオルも動いてるから違うんじゃないの?
今、過去ログ読んでおります・・・・ <進行中>
>>577 各処理に任せず一ヶ所に処理を集中させたとき、サーバがこけたとして、
こけたものを救済するのはどうやるですか?
gameサーバのグラフ的には、なにか一気に沈静化したような雰囲気がありますね。 効果があったのでしょうか?
私は とっても効果があったと理解しています。
>>579 うーん,まぁサーバがコケた時云々ということになると,そもそも
普通のやり方でディスクに書き出したとしても,明示的にfsync()とかしなきゃとか
いう話になってしまうと思うのですが......
アクセスが最も集中する時間帯にもかかわらず、負荷は導入前より 低減しているのですから、絶大な効果ありという理解でよろしいのでは?
このグラフって1分の方で取ってるの?変動がやけに大きいような...
>>582 よかったですね。♪ おめでと!
*・゜゚・*:.。. .。.:*・゜゚・*:.。. .。.:*・゜
(・∀・)シャンティ♪
*・゜゚・*:.。. .。.:*・゜゚・*:.。. .。.:*・゜
絶大な効果があった 100 -> 50 になった でも 目標は 1 以下だったりする 、こんなとこ?
590 :
574 :02/03/26 00:30 ID:???
>586 グラフでは1分、5分、15分の平均値を使っています。 分けたほうがよかったですかねぇ?
>588 ? 半角逝った事ないので状況分からないんですが。 >570 の書き込みのこと?
>>591 いやvipも変更した筈だけどまだ負荷がかかっているみたいということで...
vip はもっと 供給が需要に追いつかないんでしょうね vip スレ保持数 250 にしてみました。
あらっ 全然効果なかったです。 前までは、スレ保持数を減らすと軽くなったんですけどねー UpTime(vip) = 7:54am up 24 days, 10:00, 0 users, load average: 169.48, 145.90, 141.86
>592 ありゃ?vip変更してたんですか。それは失礼。見落としてました。 その割りに悲鳴が聞こえないのは既にかちゅユーザーは対応済なのか vipユーザーは主にブラウザ使ってるのか? vipユーザーだけツール使用比率違うなんてことは…ないよなぁ?
2ちゃんは性欲には勝てないのか〜。
見落としって言うか忘れてるよ私……寝よ。
>>595 見落としもなにも・・・・初回限定版でっせ>vip
ここにもポチットナ
★ bbs.cgi軽量化開発コンペ ★
http://qb.2ch.net/test/read.cgi/qbtr/1017071166/l50 682 :トオル :02/03/26 00:19 ID:a2u5HD06
「先に作ったもの勝ち」じゃなくて、
「どれだけ軽量化できるか勝負」ですよん。。。
674 :トオル :02/03/26 00:16 ID:a2u5HD06
なお、これに参加する、かつ、
プロバメールである程度身元を表明できるというかたには、
表に出すより少し詳細なものをメールでお送りしたいと思います。
>>593 良スレがかなりdat落ちでヤヴァイんですけど > Vip
他の鯖も供給が需要に追いつかない気味もあるがね。
kageが簡単に苦楽できるんですが。
半角系は良スレがsage進行でやってることが多いから 早めに戻してね。 250はなんぼなんでも少なすぎ・・・
ですなー どうしたもんだか、
newsは250でも問題無さそうな気がしないでもない。
datに逝ってしまえば元には戻らない。。。
おいおい・・・ いくらなんでも安易に変更しすぎ何じゃないの?(´Д`;)
(゚ε゚)キニシナイ!!
圧縮によってdat落ちするのは書き込みが古い順だから、仕方ないと思われ。
AJA6H/Ws ◆MPnX7dHAがエンドユーザの立場でぶー垂れはじめました。
1000→700は、やりすぎだろ。
現在進行形のスレまで消さんといて〜。最終書き込み4時間越えでDAT落ちはキツいわ。
半角二次元板、自治スレも落ちたみたいね たしか23時の時点で450近くスレがあったから200スレ落ちたのか・・・
>>612 だってこれはいくらなんでも暴走・・・・
>617 鯖負荷で落ちるのと、延命策とどちらを選ぶかのバーターだし。 今はこれが精一杯と考えるしか。
半角2次元圧縮し過ぎや。
すげームカツイた。
(・∀・)ニヤニヤ
夜勤さんも苦労するわ...ヽ(´Д`;)ノ
624 :
名無しさん@お腹いっぱい。 :02/03/26 01:50 ID:uCnrXIvG
いくつもの良スレが削除されてしまったことに対して憤慨してもイイですか
>>624 俺も半二住人なので常駐スレが落ちて泣きそうだけど、
憤慨しても意味ないからやめれ
覆水盆に還らず(合掌)
627 :
624 :02/03/26 01:54 ID:???
>>625 切ねぇっすよ…。殆どの良スレはあの時間帯殆ど下にいるってのに…
>>624 同じく虹住人。
悔しいけど、仕方ねえんだ。
糞スレもある程度消えた。これからまた良スレを作ってけばいい事よ。
クヨクヨするな、相棒!
631 :
624 :02/03/26 02:11 ID:???
>>628 クヨクヨしても仕方ないんですよね…でもやりきれないです。
荒らしとか宣伝とかこまめに削除依頼だして来た自分のスレが消えてたのが
一番のショックです…。
この騒ぎに便乗してまたクソスレ立ててる奴がいるのも切ないです…。
(・∀・)スッドレ!がなくなって氏にそうだよ・・・・ あしたからどうやって献立考えよう・・・・
スレの趣旨からはずれとるぞ
愚痴スレはここですか? 違いますよね?
636 :
625 :02/03/26 02:15 ID:???
ところでgzipはいっぺんに複数ファイル圧縮できるという点に なぜ誰一人として突っ込みませんか。 $ gzip index.html subback.html subject.txt これだとオリジナルが消えちゃうから少し工夫が必要だけど。
>638 gzipて、permissionとowner/group保持できないんでない?
板のdat落ちって最終更新順だから、スレが下にあるかどうかは(直接)関係ないのにな・・・。 書き込みがないから落ちたんであって、順位が下だから落ちるんじゃないんだよ。 >sage進行のスレにつらいとか言ってた奴。
>639 gzip.cを読め。
643 :
一 五明 ◆DKXvv9Lw :02/03/26 10:46 ID:7r1LDwf0
Unixのファイルシステムはよく知らないけど、実況鯖だけでも RAMディスクで運営するようなわけにはいかないの? 1Gで100Kのスレが1万入るが…
>>639 それはstdoutにリダイレクトした場合(現行)でも同じだと思うが
646 :
281 :02/03/26 13:35 ID:???
>>282 ということは、更新していれば問題ないということですね?よかった。
いろいろ迷惑をかけてすいませんでした。
あげ。
649 :
Dream ★ :02/03/26 17:26 ID:???
おはようございます。 今日は夜勤さん、テスト鯖拡大するのでしょうか?
>>649 予定なし〜
ちょっと、お出かけしようかと、
>>653 了解です〜。
では私はbbs.cgi開発の方に注目いたします〜
おきをつけて
夜勤★がいるのはここか? めちゃくちゃすんなや! 半角二次元で稼働中のスレをいっぱい落としちまいやがって。 板最古スレもこれで落ちた。保守sageしてたのに。。 規定どおりの仕事しろよ! 泣くに泣けんのだぞこっちはYO!
659 :
Dream ★ :02/03/26 18:39 ID:???
異論(議論の余地)有り A.monazillaはデフォルトでは巡回等に規制をかける。 B.ログインした場合のみ巡回等の規制なし。 C.ツールにお知らせ機能(仕様変更等の)を追加。 D.ツール側で巡回、更新チェック以外の機能を●もちと●無しで差別する。 E.2ch側で●もちと●無しで差別する。 A.については各ツールの最新版では鯖負荷を抑える機能を実装済みが多い(kage等) また、効果があった模様。 B.については有料ユーザの優遇策は実施されていないツールが多い。 C.は今回のことのようにツールをはじくような改造があった場合に各ツールにお知らせ 機能があれば便利→そんなに頻繁ではないので、各ツールスレをみてもらえばOKかも? D.ツール側での差別化はそうなってホスィが、それは各ツールの作者さんに任せる。 E.についてはアイデアは出ている(スレ立て規制無し(緩和?一日5スレまでとか) A.の目安は(今のところ、これを基準に各作者さんに実装してもらう?) 巡回:datをとってくる:スレ取得後にスレ数×20秒のインターバル 更新チェック:ゾヌ方式(datから):スレ数×4秒のインターバル 更新チェック:abone方式(subject.xtから):板数×5秒のインターバル(.gzは行わない?) スレごとのウェイトはダイヤルアップユーザの為に避けて、巡回、更新チェックはまとめてあ とで行う 結局問題の本質は鯖負荷等の費用と収入の問題。 α:鯖負荷等の軽減策+β:収入増加策を考える必要有り。
660 :
Dream ★ :02/03/26 18:42 ID:???
>>659 なのですが、これ今まだたたき台を作ってるという感じ、のようなのですが、
作者さん達の現時点での見解とかご提案とかアドバイスとか、そんな感じの
お話をいただければ、と思いますです。
私自身の個人的な感想や見解はじゃまになるそうですので・・・
お願いできましたらお願いいたします>ツール作者各位さま
昨日の二次板の一件で殆ど眠れず、嫌な夢を見、発熱しました。 これは立派な対人攻撃だと思いますが。 >>夜勤
本質的なところで、Aの目安に挙げられている インターバルの時間について。 これらの数値は、当然対象サーバごとに持つ数字だよね。 pc.2ch.netとcomic.2ch.netと両方にアクセスする場合 それぞれへのアクセス時間について4秒なり20秒なりの インターバルを持て、ということだよね? 数値そのものについての議論はとりあえず置いとくとして。
663 :
Dream ★ :02/03/26 18:53 ID:???
で、これは向うで言うべきことかもしれないが 一応こっちでも言っておくと ●持ち、●なし の差別化 は 「サーバ側で行う」 のが筋だと考える。 ツール側でどうにでもできることなら、少なくとも私ならクラックします。 (例えばインターバルとかね) サーバサイドの技術話になるからこっちでいいか。
>>665 いや、一応ひととおり読んだり試したりしてるから多分わかってると思う。
(つもりかもしれないけど)
だからなおのこと気になるんだよね。それで規制できんのかなって。
>>656 いくらなんでも
>>589 の発言はド素人だと思うんですが、
夜勤さんってUNIXの分かる技術者ではないんですか?
別に揶揄してるとかじゃなくてね。表現悪くてごめん。
要するにド素人であることが悪いということではなくて...
>>667 どうして そう思うの?
あなたの実験結果の感想とかは?
>>662 まだ、その辺の話はしてません。
>>664 ログインした時のみ差別化されると、通常は巡回を鯖側ではじくと、
で、ログインしてる場合はスルーさせると、、、そういう意味です。
で、ツール側にはそれが可能な仕様を追加してもらうと、、、
1.デフォルトで制限をかけたツールのみ鯖側で受け入れる
2.その中でログインした場合のみ巡回制限をなくすと
クラックする人数が問題なのよね。 例えば、60万人中600人くらいだったら無視できる数字じゃないかとか・・・。 規制の数値を矢鱈とハードにするな(別途受け口がある場合は別。逆にハード にして、その次善の受け口に誘導することは十分考えうる)ってのは、 クラックまでする強烈な不満をもつ人間が増えすぎて 例えば10万人以上がクラックしますた、とかになると不味いからで 逆にはみ出す奴を1%以下に押さえられる程度の規制なら 規制としては十分成功かと。 要は、多数を占めるフツーの人が標的ですからね。 積極的にクラックするような人の存在は、ある意味一定の確率での必然で、 仮にそいつが無視できないほどヘビーな奴だとしても、 フツーの人の規制が成功しているのならば、規制の一般論を考え直すよりも 単に個別に狙い撃ちの規制を別途考えるのが賢明かと。 だから、フツーの人を生かさず殺さずに治める規制の数値は どこなのかがむしろ問題ではないかな。 こりゃまさしく政治だねw
A Boneの委員長です。 A.についてですが、現在はまだ叩き台との断りがあるので 細部について問うのは早計なのかもしれませんが、一応 疑問点を書いておきますね。 [各方式のインターバルの取り方について] 確かホットゾヌが選択式になってたように記憶してますが、 このインターバルは後で纏めて取る方式でも良いのだろうか? dat取り巡回で20秒のインターバルとのことですが、 10スレッド分を一気に取ってしまい、次の巡回を200秒後にしか 出来ない仕様というのも、レギュレーション違反とならないのか? この方法でもOKならば、通常の使用目的ではそれ程不便でも ないように思いますが、20秒毎に1スレッドを取得する以外は ダメだと、心情的にはツライですねぇ。 要は1分で巡回を終えてオフライン読みにして、オフライン中に インターバルを払いたいんですよね、出来れば。 ただ、「一気に取るのがマズイんだ」という意見もあったと思うので 不可かな?(^-^; これは開発的にではなく、使い勝手的な問題ね。 [更新チェックと巡回を併用の場合] このdat取り巡回20秒は、従来のかちゅ〜しゃのように、更新されて ようと、されてなかろうと関係なしにdat取りをトライする場合を想定 しているのかな? 更新チェックと巡回を併用するのであれば、無用の不可をかけていない という理屈もあるので、その場合もう少し緩和されるのだろうか? 以上2点が現時点の疑問で、私の個人的な要望としては、 インターバルの後払いOK、更新チェックと巡回の併用の場合 更新チェックのインターバルのみ払えばOKという感じです。 「これが正しい」という主張ではなく、「こうだったら嬉しいなぁ」 という意味で取って下さいませ。 長文すません。
そういえば倉庫のスレを並べ替えて鯖負荷を減らすように努力する (要するに同じ鯖に連続でアクセスしないように配置する) って言ってたかちゅユーザがいたけどツール側で再配置すればいいかな。 ダイアルアップユーザの人権が守られてインターバルがまとめでいいみたいだから 頑張ろうって気にもなるし。
>>668 > どうして そう思うの?
CPU1つ(?、まあ2つでも変わんないね))のPCサーバーの
LAが100から50になって負荷が下がったと思うUNIXの
分かる技術者は一人もいませんから、理由は特に述べません。
解説すると長くなるし。
> あなたの実験結果の感想とかは?
データが少なすぎです。
vmstat iostat netstatと
httpのレスポンスタイムくらい見ないとなんとも。
で、別に夜勤さんを非難してるわけじゃなくてね。
もし分かんないんだったらやり方考えたほうが...
と思ってるだけ。
>>647 100 とか 50 とかを load ave の数値と思っているのは貴方だけという罠。
夜勤★、マジでいい加減にしろよ! 虹板の大事に育ててきたスレッドが全部逝っちまったじゃねーか! UZEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE EEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEEE!!
677 :
名無しさん@お腹いっぱい。 :02/03/26 20:01 ID:MYWX3C04
>>676 人の敷地内で店開いて、所有者に怒られたらあんたは文句言うんですか?
逝ってよしですな。自分の敷地で店開いてください(自分の鯖で板立ててって
ことね)
>675の誤爆さん、じゃあ何の数値ですか?
あんましスレ汚したくないから、これで終わり。
>>678 自分で鯖立てて、自分で管理しろ。消されなくて済むぞ。出来ないなら
おとなしくしてろ。
>>677 じゃあ、あなたはレストランで鞄を置き引きされても
何も文句言わないんですね。
バカは逝ってよし。
680必死だな(藁
>677はバカだが、>676の抗議はクレームを出す先が違うので>652を見てくだちい。
>>679 10 5 0.1 じゃわかりにくいか、
1,000 500 10
10,000 5,000 100
でもいいんじゃない きっと
>>680 頭悪いんならこういう議論に参加するなよ
あ〜あ、終わりたいんだけどな
>>681 次元が違う。
レストランで鞄を置き引き→鞄は自分の所有物
2chへの書き込み→書き込んだ時点で2chの所有
DQN春房はカエレ
690 :
Dream ★ :02/03/26 20:16 ID:???
>>672 インターバルはまとめて、というのは、いつ入ったんでしょね?
驚きました。いみねー。
もうどうでもいいや。そもそもスレと全然関係ないし。勝手に盛り上がってクレ。
クレームを出しても失ったものは戻らないという罠。
過去を顧みず明日を夢見て生きれ。
>>689 著作権って知ってるか?
俺の書き込みは俺の物らしいぞ。
関係無い話っぽいけど。
>>689 逝ってよしですな・・・
なんか話にならない・・・
レベルが低すぎて・・・
イタい689がいるスレ
>>681 その鞄は、実は自分の鞄(所有物)ではないという罠。
>>670 そんな考え方を私も持ってます。
>>671 >[各方式のインターバルの取り方について]
>確かホットゾヌが選択式になってたように記憶してますが、
>このインターバルは後で纏めて取る方式でも良いのだろうか?
いいと思います。ダイヤルアップユーザのオフライン読みのためにも。
>要は1分で巡回を終えてオフライン読みにして、オフライン中に
>インターバルを払いたいんですよね、出来れば。
>ただ、「一気に取るのがマズイんだ」という意見もあったと思うので
>不可かな?(^-^;
>これは開発的にではなく、使い勝手的な問題ね。
マスで考えれば、実はそんなに1スレごとでもまとめてでも
あんまり変わらない気がします。
ゾヌのように選択式になれば一番良いかと。。。
それは各作者さんが考える問題か。。。。
>[更新チェックと巡回を併用の場合]
>このdat取り巡回20秒は、従来のかちゅ〜しゃのように、更新されて
>ようと、されてなかろうと関係なしにdat取りをトライする場合を想定
>しているのかな?
>更新チェックと巡回を併用するのであれば、無用の不可をかけていない
>という理屈もあるので、その場合もう少し緩和されるのだろうか?
1.従来かちゅ:とにかくdat取得
2.本来の巡回:更新チェック後、更新のあったスレのdat取得
3.更新チェック:更新チェックのみ(ゾヌ方式、abone方式)
1.は言うまでもなく規制の対象とすべきですね。というか禁止かな?(●もち含む)
2.はそれでも負荷は大きいので規制は必要かと←これを想定してます。
3.は前に書いたとおりです。
701 :
Dream ★ :02/03/26 20:24 ID:???
>>687 俺は load average だと思ってる。
>687は「100 が 50 になっても、負荷が高いことには変わりない」
ってことが言いたいんだよね?
>>702 違うって、「先はなが〜〜〜いのう」ということを言いたいんだって。
>>690 ダイヤルアップユーザ対策のためです。
で、マスで考えれば個々が1dat取得ごとにインターバル入れなくても
トータルでは分散化するのではないかと。。。
この辺の話は、批判要望の方がいいと思うので、そちらで、、、
委員長さん、批判要望の方にも来てくださいね。
706 :
Dream ★ :02/03/26 20:29 ID:???
>>700 本当にそれでいいんですかね>インターバル。
いっぺんに、ががーっと来るのを回避したくてこんなお話ししているんですよ?
んじゃ、セッションもいっぺんに何本でも張ってよし、ですか?
あとでインターバル取れば。
いま考えましょうよ、っていっているのは、「理屈上こうなればいいんでしょ?」
なんてお話じゃなくて
「お財布に限度があるサーバの上に載っかってるサービスなんだから、
知恵と工夫で乗り切りましょうよ」
ってお話なんじゃないかとおもてました。
その観点で、理想的な方式を「ツール作者さん達にお願い」するための
たたき台を作ってるんですよね?
私の認識だと、そんな感じなんですけど、どうなんでしょね?
ああ鬱陶しい。関係ない話でスレを流すなボケ。
叩いてる奴も689も同じだ。
掲示板への書き込みに著作権を主張するのも間違い。
投稿確認
・投稿された内容はコピー、保存、引用、転載等される場合があります。
・投稿に関して発生する責任は全て投稿者に帰します。
これ読んだことある?
>>693
>703 夜勤さん、>702だって「先はなが〜〜〜いのう」ということを言いたいんですよ。 百歩が五十歩になったと。
これだけ みんなの労力、時間を費やして 100 が 50 になった、50 も減った、半分になった訳だけど、 目標はまだまだ先で、到底たどり着かないんじゃないかなぁ ふぅー と言いたいのよ。同じ労力をかけても次は 50 -> 25 な訳で その次は 25 -> 12.5 -> 6.25 -> 3.125 となるのが常でしょ? 1 が目的だとしたら ガクガクブルブル
710 :
Dream ★ :02/03/26 20:32 ID:???
>>704 ダイアルアップユーザにインターバル入れるのはおかしくないですか?
ダイアルアップのユーザは、すぽんと取って回線切って欲しいわけですよ。
(ソフト上でインターバル入れられたらそれはまずいんじゃないかと)
んで、その代わり、●買って下さいよ、って話じゃないんでしょうか?
>この辺の話は、批判要望の方がいいと思うので、そちらで、、、
>委員長さん、批判要望の方にも来てくださいね。
え?
>>710 ちょっと、話こんがらがっているので(in my head)
あっちのスレにまとめて書いておきます。
>>704 まとめ取り方式ならすぱっと取った後にどれだけ課せられようがまず関係ない。
だから全然おかしくない。
つーか、●前提の話しかしないね、マジに。
すでに管理者サイド?
>713 まとめ取りというのは特殊な動作なんだから課金前提でいいんでないの。
>>713 いや、私は「まとめてとる」推進派なのですが。。。
夜勤 ★殿 半角二次元のスレでアップしようとしたスレを落とさないでくれますか? 昨日と日中まで有ったものが突然無くなるなんて止めてください。 確認をしてから落として欲しいですね。 半角二次元の処女喪失の画像スレだったかな、確か。 おかげで再度スレあげる事になるじゃないですか。 今度からきおつけてくださいね。お願いしますね。
>>715 自己レス、
「まとめてとってあとでドカンとインターバル」推進派でした。
インターバルの議論は批判要望板のすれの方で議論したいのですが、。。。
719 :
Dream ★ :02/03/26 20:47 ID:???
私が想像していた感じを書きます。 1 更新チェック スレッドに新しい書き込みなんかがでているかどうかのチェックはsubject.txtで行う 各datの確認ごとにdatに対してセッション張らない分サーバに優しい 2 巡回チェック ●ユーザで、ダイアルアップ環境のユーザのために提供するようにしたい お気に入り登録されたスレッドのdatを一括して獲得して、回線断する それ以外の巡回チェックは、サーバの負荷とかを考えて、サーバに優しい方式を 考案してやっていきたい・・・インターバルとか・・・ 3 subject.txtやdatの場所を変える クラッキングツールとか、自作ツール系で手軽なアクセスが出来ないように、 掲示板としては本来隠れたデータであるべき(ブラウザから見える必要のない) これらのデータは、極力ユーザから見えない場所にしまうようにする。 で、ツール作者さんには、たとえば、Monazillaに参加されている方に 情報としてお伝えしたり、アクセス方法をお知らせしたり・・・とか。 4 read.cgiベースのrawモードの使用中止 去年8月の段階で、回線帯域使用量の圧縮のために取り組まれたrawモードなどは、 今後、サーバ負荷軽減のために、別の方式に切り替えていく。 転送量とサーバ負荷とのトレードオフの綱引きが続きそう・・・ 5 bbs.cgiなど、cgiやサーバの見直し bbs.cgiやread.cgiの負荷を削れるだけ削りたいな・・・と。 なんか認識間違ってますでしょか?
720 :
名無しさん@お腹いっぱい。 :02/03/26 20:47 ID:1B1xV8Zs
722 :
Dream ★ :02/03/26 20:50 ID:???
>>713 巡回機能を許すんだったら、●購入した人って感じにしようよ、
って話の流れだと思ってましたが・・・・
いやべつに私なんの権限もないですよ。管理もなにも。
そんなことより、●無しの人にもダイアルアップ機能ありでいくって
感じになってきてるんですか?>西安さん
それだったら認識改めますです。おっす。
>>722 確かに私の目にも、巡回機能を許すんだったら、
●購入した人って感じにしようよ、
って話の流れには見えてました
だからこそ寝る間も惜しんで UCK を更新してるし、反対活動もしてるわけですが。
なんか、目的毎に分割したつもりが逆に混同を招いてるような気がしますね。
悩ましいことです。
短時間の負荷がきついってのは、ユーザー総体からのコールが厳しいという 話だから、各ユーザーにまとめてインターバル(といっても個別にウェイトかける ことを直ちに否定する話にもならないと思うけど)でも、ユーザー総体では分散 つーことになりえないかねぇ? そりゃ、各ユーザーレベルで分散すれば総体でも分散になるであろうことは 容易に想像できるけど。
質問。どっちがサーバに優しいのかな。 巡回もしくは更新チェックをする際、一つのサーバに複数のリクエストを出すとき、 ・Keep-Alive の時間を超えるインターバルを取って、一回ごとに接続・切断を繰り返す。 ・Keep-Alive の時間を越えない範囲でインターバルを取る。
>>725 とっとと切断。
他の人のこと考えましょう。
727 :
Dream ★ :02/03/26 21:05 ID:???
>>723 巡回機能=一括してどかどかdatとりまくる
更新チェック=理想的には個別にdatに触らずsubject.txtなどでスレッドの状況を確認する
ということであれば、「巡回機能」は●買ってもらおうよ、という風にいってくれればいいな、
受益者負担って感じだよな、って話だったと思います。
更新チェックと巡回は、上の認識が前提条件で、このスレッドは進行していたはずです。
>719 (3)についてはhttpを使う以上無意味でないですか。tcpdumpでイパーツ
つーか、ダイアルアップユーザは制限からテレホじゃない時間帯は余り出没しないのよね。 故に時間帯によっては常時接続な人しかいないわけだから、 ダイアルアップを無視した方向に話が進み易いと思うのよね。 その点について少しでも気に掛けてくれるとうれしいです。
同床異夢のようで。
お知らせ の類はサーバをわけたら?
733 :
Dream ★ :02/03/26 21:19 ID:???
>>729 たとえば3についてですが、Monazillaに参加している方の申告で、ツール単位に
Basic認証発行して・・・・という感じで、一つの方法は考えられると思うんですけど、
tcpdumpとかリバースしてリソース拾ったりする分については、
それは仕方ないのではないかということなんですよね。
もちろん、厳密にいえば通信法の適用範囲でもありますし・・・・
734 :
Dream ★ :02/03/26 21:24 ID:???
これは暴論で妄想なんですけど、 4/1はエイプリールフールでもありますんで、丸一日、すべてのdatとsubject.txt 隠しちゃって、全員Web使ってみて、負荷がどう推移するかとか、データ取りできませんかね? ユーザとしての私個人は「冗談蛇ねえ・不便でしょうがない!」て思いますけど、 この問題ながめさせてもらってるところから見ると、負荷の実体というか、 手がかりがこういう実験で見えないかなぁ? って気もします。 あんまし意味のないデータですかねぇ。
735 :
Dream ★ :02/03/26 21:26 ID:???
>>734 4/1 だけってわかってるならその日は寝ておしまいだが(苦笑)
問題はどうなってんだゴルァという書き込みの群れで逆に通常より負荷が高くなったり(笑)
737 :
疑問 :02/03/26 21:34 ID:???
常時接続ユーザーがダイアルアップ用巡回を使えないようにできるわけ?
ダイアルアップユーザ専用のログゲットソフトを別に作れば (ログの形式は各ビューワの形式にあわせられるようにする) ダイアルアップユーザはそれを使って一日に数回まとめて ダウンロードすることが可能になるな。 で、既存のビューワは全て「巡回」機能は廃止する。 (更新チェックのみ残す)
>>738 いや、確かにそれで良いんだが、それは誰が書くんだい?
>>741 いい機会だと思うんだよね。
この機に、作者チームが集まって
ログ取得とか更新チェックとかそのたもろもろの
ライブラリを作っておく ってのも。
2ch.dllってわけじゃないけど。
>>737 問題は「頻繁な巡回」なので、ダイヤルアップ、常時接続関係なく
「頻繁な巡回」を規制する方向で考えてます。
常時接続でも巡回後は一定時間のインターバルをおかないと、再度巡回できない。
っといった感じです。
お話は批判要望板のスレのほうがいいかも。政治的な問題なので。。。
>>743 いやなんでさっきからこっちの話あっちに誘導するの?いいけど(笑)
>733 datはともかく、subject.txtを隠すのって意味あるんですか? subback.htmlから等価なものが作れるのに。
>>744 あれだけの混乱っぷりを見せた俺としては一つの方がありがたかったりも(笑)
>>745 全く無意味ですよ。
まあ、攻撃ツールが1日ほど使えなくなるくらいじゃないすか?
>>744 いや、こっちはもっと専門的な技術を議論して頂いて、政治的な、
野次が飛び交うようなのはあっちのほうが、ここに迷惑をかけないかと。
賛成・反対が出そうな政治的議論はあっちの方が良いかと。
こっちは技術のbetterとmore betterの議論をしていただければと。。。
>>745 subbackは、いくらでも名前変えちゃえるそうです。夜勤さん曰く。
既出です。
750 :
Dream ★ :02/03/26 22:06 ID:???
>>747 ああ、攻撃ツール利用者の切り分けとかに使えそうですね。
subback要求があったらそれは攻撃ツールだ、という感じで・・・
つまり、今みんな一生懸命実装している更新チェックも 当然やりにくく(場合によっては全く出来なく)なるわけだ。 ま、そうしたら攻撃方法かえるだけだよな。 攻撃側だって、なにも上から順番に落書きしたいわけじゃないしさ。
>>749 でも subback へリンクを張ってるところはそう簡単に変えられないよね?
もし、そこが変えれるとしてもどんどん上にさかのぼって変えられないところがどこか出るはず。
そうすると最終的にはなんとかされちゃうかも。
もちろんその前に向こうがやる気をなくす可能性もあるけど。
攻撃側の人間としての仮想人格を作って話してもいい? その方がうまく話ができそう。
754 :
Dream ★ :02/03/26 22:16 ID:???
>>752 置換一発で終了のような気がしませんか?
755 :
Dream ★ :02/03/26 22:17 ID:???
>>753 ああ、どぞどぞ。
ただ私管理側の知識ないので、おながいします。
756 :
疑問 :02/03/26 22:18 ID:???
もっかい質問 そのダイアルアップユーザ専用のログゲットソフトとやらを 常時接続ユーザーが頻繁に使い倒すのを阻止できるの?
>>754 その気になれば 2ch.net のルートからオートパイロットで追えるような。
もちろんインテリジェントに書くのはすっげー難しいけど、あんまり頻繁に変動するとブラウザユーザにも被害が出るからどっこいどっこい。
もちろん、そういう手法では守り手側のほうが有利だけど、必要部分を人間に置き換えることも可能だし。
完全に動的生成にするとツール側はほぼ敗北必死だけどサーバ負荷が増す罠。
そしてアタッカーは何事もなかったように別の手法に切り替え(苦笑)
一言で表現すると いたちごっこ
批判要望の方に提案文書のドラフトかいてみたです。 ご一読お願いします。
760 :
Dream ★ :02/03/26 22:23 ID:???
>>756 それは作者さんがどんな感じで実装するか次第だと思うんですよ。
あと、自力でハックできるようなひとって、この際考慮するのは
コーディング時というか、そういうときまでおいといて、っていうと
あれでしょうか?
>>756 巡回がエラーで止まるとかいったことを考慮しなければ、
ダイアルアップから切断までを含めてツール化すれば常時接続側は難しいかも。
でも、俺もそこら辺はそんなに知識があるわけではない。
今思ったんだけど、ダイアルアップユーザだけを確実に認識する 方法があるね。ちょっと時間(とお金)がかかるけど。
>>760 まあ、もちろん最悪論的な見方なので実際にどうかは別です。
ただ、そこまでするアタッカーが本当に出てしまった場合は不便になっただけという罠って話です。
だから、実際にはなんともいえまへん。
>>762 それだと、ダイヤルアップユーザの優遇策になるのでは、、、
常時接続もダイヤルアップも同様にするほうが良いのでないかと、、、
それにいまのところの意見では、常時接続を冷遇する必要はないのではないかと。
ぎじゅつでない常時接続vsダイヤルアップ的な政治的な話になりそうでしたら、
あっちのすれに移動してくださいです。
>>764 一見優遇に見えるのかもしれないけど、実情として更新チェックだけされてれば常接は困らない気も。
まあDAT落ちが激しい板とかもあるかあ・・・。
ダイアルアップユーザはまずほとんどグローバルIPってところ。 プロバイダに割り当てられた範囲内のIPアドレスを配っているから その範囲を調査すればネットワークアドレスで切り分け可能かな。 当然串は弾く。これは現状の規制とほぼ同じ扱いでいける。 問題は調査にかかる時間とお金。あまり現実的じゃないね。 このへんは政治的な話だけど。
767 :
Dream ★ :02/03/26 22:33 ID:???
前提条件として 1)ダイアルアップで従量制だったりすると、課金辛い 2)一瞬でも早く回線断したい 3)あちこちうろうろするより、さっと取ってぷちっと切ってオフラインで読みたい てのがあって、ダイアルアップ用巡回、って発想があると思うんですよ。 常駐しないというか、お祭り参加しないというか、リロードしないというか、なんというか。
>>Basic認証発行して Basic認証ってパスワード垂れ流すものっていうことは知っていますか? それに、navi2chや2ch-mode他、原理的にソースを隠すことが不可能な ツールがあることを認識してください。
769 :
Dream ★ :02/03/26 22:36 ID:???
だからダイアルアップだとしても、テレホーダイとかだったら 扱い違うと思うんですよね。もう当然の話なんですけどね。 そのへん、巡回の実装でたぶん、考えないといけないと思うんですよ。 ひろゆ子のいうとおり、クラックパッチ一発で何とかなっちゃうにしてもしなくても。
770 :
Dream ★ :02/03/26 22:36 ID:???
>>768 はい、しってます。
でも、ぎそうするとつうしんほういはんにはなります。
>>733 datはともかく、subject.txtを隠すのって意味あるんですか?
>subback.htmlから等価なものが作れるのに。
全く意味ないと思います。それより、混雑サーバの混雑時間帯はDATへの
直アクセスを一切遮断し、●持ちの人だけread.cgi経由でDAT取得可能、
とかやった方がいいのでは。
772 :
Dream ★ :02/03/26 22:42 ID:???
>>771 subbackがいまの位置に今の通りに今後もあるとは限らないです。
773 :
疑問 :02/03/26 22:47 ID:???
>>760 どっちかといえばクラックしなくっても
使い方を工夫すればチェックを誤魔化せるんじゃないかという気が
するんですよ
簡単なら口コミですぐ広まっちゃうでしょ
規制関係は性悪説で考えないとバカ見そう
>巡回機能=一括してどかどかdatとりまくる >更新チェック=理想的には個別にdatに触らずsubject.txtなどでスレッドの状況を確認する If-Modified-Sinceで更新が無かった場合はDATには触りません。statかけるだけ。 subject.txt の大きさの問題、アクセスがsubject.txtに集中することのI/O負担、 なども考慮する必要があります。 subject.txtを転送させて空振りする(304)リクエストを減らすことと、 subject.txtを転送させずに空振りするリクエストを許容することは 注意しないとその負荷(CPU/Disk/Network)はすぐ逆転します。
>>772 つまり、更新チェック機能も否定するということになるね・・・いや〜ん
規制するのはあれか、巡回機能を悪用するヤツを閉め出すため? それとも、鯖の負荷を低く抑えるため? てっきり後者だと思いこんでいたのだけど、 どうも両方を目的にしているっぽい。 どちらか一方に絞らないと無理。
777 :
Dream ★ :02/03/26 22:50 ID:???
2ちゃんねるの転送量が増大し、運営費を圧迫している(昨年8月の問題以降) これに対応するべく、read.cgiでのgzip圧縮やMonazilla(2ちゃん閲覧ツール作者さんの集まり) が開発するツールなどで、様々に工夫をしていた そうこうするうち、転送量の圧縮は出来ているが、今度はサーバの負荷が増大して、 運営に支障があるレベルになってしまった(今回の問題) 対策のため、現在choco、love、vip、gameなどで、これまで許可してきたツールでの閲覧や書き込みの 方式を変更した。変更は以下の通り。 ●dat、subject.txtの取得=>Monazillaツール(但しkageは0.99.1以降)でのみ取得できる。 ●bbs.cgi=>kage 0.99.1未満をはじく。 ●read.cgi=>Monazillaツールをはじく。
>>772 板のトップページをパースすればすぐ分かります。フォーマットが変わっても
解析なんて簡単です。他の部分を作る方が大変。
779 :
Dream ★ :02/03/26 22:50 ID:???
この変更によって影響がでる可能性のあるツールは、以下の通り
現在も影響があるツール:
●MapleSyrup Ver.0.05g (read.cgiを使っているためレス取得不可)
●ぎこはにゃ〜ん 0.22.04 (read.cgiを使っているためレス取得不可)
●Hikky 02/01/22 版 (read.cgiを使っているため新着レス差分取得不可)
●Gickoブラウザ改良版 スレリスト取得不可(read.cgi使用)
影響があったが、バージョンアップにて対応可能なもの:
●A Bone Ver.1.23 (V1.23bで対応)
●かちゅ〜しゃ+kage (Ver.0.99.1.2で対応済)
●ホットゾヌVer.1.0 β2.1.4以下でスレリストを取得できない (β2.1.5で対応済)
●えまのん (3/24版で暫定対応、ただし差分DAT転送に対応していないので要注意)
●マカー用。エレメンツ (Ver0.992β で暫定対応)
●jane 低速回線・ダイアルアップ設定でレス取得不可 (高速回線設定に変更すればok)
●navi2ch (read.cgiを使わない設定にすればok)
なお、この負荷低減実験は、今後順次、ほかのサーバに拡大していく予定。
※上記以外のツールの情報をお持ちの方は、
【2ちゃんねるビューア】 巡回機能の巻。Part3
http://pc.2ch.net/test/read.cgi/software/1016905060/l50 までお知らせ下さい。
>>779 ぎこはにゃーんもHikkyも既に対応版出てるよ
781 :
Dream ★ :02/03/26 22:52 ID:???
>>778 全体の問題と、そういうスキルがある人一人一人にまで意識してサイトを構成するか、
というのは、コスト意識のバランスなんだと思うんです。
今ここでやっていることの、目的はなんなのか?
っていうことに尽きると思います
782 :
Dream ★ :02/03/26 22:52 ID:???
>>780 次スレのテンプレートに使いたいので、教えていただけるとありがたいです・・・・
784 :
Dream ★ :02/03/26 22:54 ID:???
素朴な疑問 なぜにそこまで従量制にやさしいってなことを重視しますか? 別に従量制で余計な金がかかっても知ったこっちゃないじゃないですか。 言葉は物凄く悪いですけど。 それでも2chを利用したければその人の勝手じゃないですか。 便利に使いたければそれ相応の金を出すってのがすじってもんじゃないですか。 それが2chにであれ、プロバイダにであれ。 やっぱ巡回なんて金出さなきゃ使えないようにするのがいいじゃないですか。 しろゆきも言ってるように。
786 :
771 :02/03/26 22:56 ID:???
>>781 言いたいことは、subject.txt を隠したところでその意味は限りなく薄いということ。
それよりは、もっと現実的かつシンプルな提案として
>>771 を書いたのです。
>>785 俺が従量制でできるだけ金を払いたくないから。
そしてそういう人が他にもいるから。
そういう話は対象を置き換えていくときりがない。
788 :
Dream ★ :02/03/26 22:59 ID:???
>>786 >言いたいことは、subject.txt を隠したところでその意味は限りなく薄いということ。
私そうは(限りなく意味が薄い)思わないんですけど。
それに、subject.txt隠したいというのは、転送量とか負荷の問題以外のところからも
あがってきているようですよ。要望として。
>>784 影響があったが、バージョンアップにて対応可能なもの: (追加
●Hikky (02/03/26AMup版で対応済)
●ぎこはにゃ〜ん (0.23.03 で対応済)
あと、Mac用ツールはどうなってんだろう、
・iTteyoshi
・マクモエ
・Ahyazilla
・Fuuun
・CocoMonar
790 :
Dream ★ :02/03/26 23:02 ID:???
ていうか、サイト設計として、datやsubject.txtやSETTING.TXTっていうものは、 一般ユーザが容易に接触できるところにおいてあるべきものかという話も、 どこかにあってしかるべきじゃないでしょうか? これは、純粋に私の私感なんですけどね。
想定する近未来: ・「串制限中」などと同じように「ツール制限中」などの言葉が普通に使われるようになる。 ・●持ちの人は、串制限が緩和されるように、ツール制限も緩和される。 ・「2ちゃんねるを便利に見たい場合はコレ!」「混雑時間帯でもスイスイ巡回。面倒な操作は不要」
792 :
Dream ★ :02/03/26 23:03 ID:???
>>791 ガクガク(((((((( ;゚Д゚)))))))ブルブル
795 :
Dream ★ :02/03/26 23:05 ID:???
>>791 さんは、転送量の問題と、サーバの負荷の問題は、
どうやって解決するべきだと思ってらっしゃいますか?
796 :
疑問 :02/03/26 23:06 ID:???
>>776 鯖の負荷を低く抑えるためには、やたらめったら巡回する人たちを
どうにかするのが近道なんじゃないの?
まあいいや、みんなあんまり興味ないみたいだから
この話はやめる お邪魔さま
797 :
Dream ★ :02/03/26 23:07 ID:???
この変更によって影響がでる可能性のあるツールは、以下の通り
現在も影響があるツール:
●MapleSyrup Ver.0.05g (read.cgiを使っているためレス取得不可)
●Gickoブラウザ改良版 スレリスト取得不可(read.cgi使用)
影響があったが、バージョンアップにて対応可能なツール:
●A Bone Ver.1.23 (V1.23bで対応)
●かちゅ〜しゃ+kage (Ver.0.99.1.2で対応済)
●ホットゾヌVer.1.0 β2.1.4以下でスレリストを取得できない (β2.1.5で対応済)
●えまのん (3/24版で暫定対応、ただし差分DAT転送に対応していないので要注意)
●マカー用。エレメンツ (Ver0.992β で暫定対応)
●jane 低速回線・ダイアルアップ設定でレス取得不可 (高速回線設定に変更すればok)
●navi2ch (read.cgiを使わない設定にすればok)
●Hikky (02/03/26AMup版で対応済)
●ぎこはにゃ〜ん (0.23.03 で対応済)
なお、この負荷低減実験は、今後順次、ほかのサーバに拡大していく予定。
※上記以外のツールの情報をお持ちの方は、
【2ちゃんねるビューア】 巡回機能の巻。Part3
http://pc.2ch.net/test/read.cgi/software/1016905060/l50 までお知らせ下さい。
日本国全てで常時接続が実現してないのが現況のようなので。
規制して数を減らす、という政治的な話ばっかりだな。 httpd.conf触らしてもらえるようにするとか、そっちの話のほうが てっとりばやくて効果絶大なんだけど、それは 政治的な話なのかい?それとも技術的な話なのかい?
800 :
791 :02/03/26 23:14 ID:???
>>795 巡回・更新チェックといった見方ではなく、ツールによるDATへのアクセスを
一旦すべて遮断した上で、●持ちの優遇策を取る。
●持ちの人の絶対数は将来に渡っても○の人より少ないわけだから、
read.cgiでsidを判定した上でのDAT転送といった、重めの処理も許容できると考える。
ここでのポイントは、すべて鯖側でアクセス可否が判断されるということ。
UAを偽装しようが、クライアントのソースを書き換えようが、有償ID/PASSを
盗まない限りはどうしようも無い。
また、一律全サーバ・全時間帯で同じ仕様にするわけではなく、時間帯ごと・鯖ごとに
制限をかけわけることで、ある程度リソース(この場合DAT)をフリーで解放する。
つまり、実況版は別に見ないから無料ユーザのままでいいや、みたいな逃げ道を
確保しておくことで「運営側からの強い圧力」といった印象を抑える心理的効果も期待する。
(この場合の対象はツールユーザ・ツール作者・クラッカー)
>>791 串無しでIEを使ってる人(想定している通常ユーザ)
は何の変化もないでしょうね。
802 :
Dream ★ :02/03/26 23:17 ID:???
804 :
Dream ★ :02/03/26 23:20 ID:???
Dreamさんにsubjext.txtを隠すことの利点を解説して欲しい人の数→(1001)
>>805 夜勤さんに聞くのが筋と思われ。
もっとも答えない気がする。
>>803 そうでしたか。
今議論されてるレベルなら、どうころんでも規制をすり抜けられます。
結局性善説の上での話ですから。
性悪説で話を進めるならサーバ側での対処が必要なのに・・・
これじゃなにゆってもだめぽ
>>807 のラインでいくと、性悪というより最早敵対視してると思われ。
逆にいえば、今の話がまとまってほしいとも思う。 だって規制が無いようなもんだからね。
811 :
Dream ★ :02/03/26 23:48 ID:???
>>805 こまったなぁ。
ある程度、このスレと、批判要望の方の発言読めば、夜勤さんとトオルさんとひろゆ子さんが
隠したがっているという意向が伺えると思う。
だから盲目的に「隠そうよ」っていうわけじゃないけど、
一つは、イリーガルなツールに、ある程度責任を負わせられるって事。
二つ目は、Monazillaつーる(便宜的にたとえているだけですけど)みたいな、
2ちゃんの負荷とかの事を考えて下さる作者さんのグループに、
認証手順とかを提供することで、ほかのツールとの差を発生させることが出来て、
その差の部分で、そうじゃないツールと、サーバ的に区別する手段が
得られるような方策が将来的に取れるか、ということ。
ここまで書いて思ったんだけど、どうして、subject.txtが隠れてしまうことに
拘泥するのでしょうか?拘泥する必要がないと思うのですけれど。
Webでも、ツールでも、通常使用の範囲では今まで通り提供されるのに。
>800 dat遮断したらread.cgiへのアクセスが集中して全鯖即死です。
814 :
Dream ★ :02/03/26 23:51 ID:???
>>812 そうなるのかなぁ。
read.cgiへの呼び出しは、localhostからのもの以外弾いてみたらどうでしょう?
別に「フツーのユーザー」(←大事)が困らないんだったら隠しちゃえ、隠しちゃえw
>>811 現状では私もある種非Monazillaツール扱いなのよね(^^;
(すでに monzilla.org で紹介されてはいるが)
開発始めるにあたって隠れてたらやる気なくしただろうねえ。
まあ、そこらへんは感情論であって、正規の手段で取得できるなら問題はないかな。
>811 subject.txt隠したら負荷が増大するだけで軽減にはならない。 subject.txtを隠す云々は荒らし対策なだけで、今回の件とは関係無い。
>>812 現在呼び出しの50%以上を占めるというツールユーザが全員
負荷の軽いdat読みをやめてIEなどのブラウザでread.cgiを呼ぶことになるわけだからなぁ。
>>816 そうなんだよね、結局、monazillaツールって何?ってなっちゃう
んだよね。
別に2chがライセンスしてるわけじゃないし、著作権持っている
わけじゃないんだよ。
そういうのに乗っかって規制する事が出来るのかと言うと、不
可能とは言わないけど、かなり難しいんだよね。
>>812 だから全鯖にはせずに一部の鯖・一部の時間帯だけにする。
read.cgi HTMLパースするツールが現れたら作者に警告する。
822 :
Dream ★ :02/03/26 23:59 ID:???
>>817 その積算根拠があるとうれしいんですよ。
>>821 作者がソースを垂れ流して改造版が出回ったら?
>811 とりあえず、gikozillaプロジェクトの発足と その現状については関知している? #今はgikozillaもたいがい氏んでるけどな。
825 :
Dream ★ :02/03/27 00:02 ID:???
>>819 いえね、そういう意味では、いわゆる2ちゃんねる側の人たち、
夜勤さんとかひろゆきとか、トオルさんもかも知れないけど、
気を使っていると思いますけどね。
ただ、サーバが破綻している現状があって、この現状をおかしい、
って思わない人がいるんならしょうがないでしょうけど、
おかしい、とおもって、協力しよう、って思う人がいたら、
単純に私は可能だと思いますけどね。
●機能の実装だって、そういう経緯でされたんじゃないんですか?
826 :
Dream ★ :02/03/27 00:02 ID:???
827 :
Dream ★ :02/03/27 00:03 ID:???
>>816 ちょっと、その辺は私の感知できる部分ではないし、
私自身Monazilla不参加なので、まずいっすかねぇ?参加しないと・・・
どうなんでしょ?
>>819 現時点でのmonazillaツールの定義は「有償IDの認証機能を備えている2chブラウザ」
だと思われ
そして有償IDはクライアントの特定や制限に利用できる有効な手段と思う
829 :
名無しさん@お腹いっぱい。 :02/03/27 00:04 ID:o8ZVbcMf
subject.txtのアクセスに、なんらかのパスワードが必要なようにしておけば、 それを正規に得ていないツール/会社からのアクセスを「不正アクセス」と して、罪に問うことができますね。 管理者がパスワードを「みだりに知らせてはならない」としておけば、あとは 実際にその機密性が保たれているかどうかは問題ではない。 日本の法律が、米国に所在する2chのサーバに適用されればですけど。
一番簡単なのは、2chが自分の責任でツールを提供する事なんだけど (monazillaのツール作者にお任せでなく) でも、現状ではそこまで出来ない。 結局、ツールで規制する事には限界がある(溜息
831 :
Dream ★ :02/03/27 00:06 ID:???
単純明快に 「subject.txtもdatも基本認証の中に隠しちゃえ」 みたいなことが言えるのは、私がニュートラルな場所にいるからだと思ってるんですけどね。 夜勤さんは、このスレッドのどこかで、 「私からそういうことを言えた義理はないです」みたいな事いってましたし。 「管理者以外の人間が批判されたりしませんか?」って気を使ってましたし。
>>829 だからsubback.html(またはそれに相当するもの)を使うだけだってのに..
833 :
Dream ★ :02/03/27 00:07 ID:???
>>829 運用会社が日本にあるのだから、専管裁判所は札幌地裁になるんじゃないっすか?
834 :
Dream ★ :02/03/27 00:07 ID:???
835 :
Dream ★ :02/03/27 00:08 ID:???
>>832 subback.htmlにアクセスしてきたIPを弾く機能って、実装難しいですかねぇ?
IPによりアク禁をかけるのは、それじたいは難しくないが、 そのIPリストを誰が管理するのかということと、 レイヤー8以降の問題が山積みではある。
>>836 2ちゃんねるの場合 political layer の所が難しいよな。
Big-Server はサーバの表面程度しかいじれない。
ひろゆきはやる気もスキルもない。
>>835 subback.htmlにどういうアクセスをしてきたものを弾くんでしょう?
通常使用でも見ることがあると思いますが
840 :
Dream ★ :02/03/27 00:19 ID:???
>>838 その辺は今話し手も仕方ないと思いますし、実装するとしたらなおさらいわないと思います。
私実装する人間ではありませんし、どんな権限もないです。
841 :
Dream ★ :02/03/27 00:22 ID:???
過去ログを縦読みしたけど、 昨日からなーんも進展がないような気がするんだけど・・・^^;
>>842 現状の2ちゃんねるの問題が、それだけ深刻だと言う事
>831 転送量や負荷を抑えるために subback.htmlより小さいsubject.txtを読んだりread.cgiより負荷の小さいdat直読みしたりするツール の使用が推奨されてるわけで、 subject.txtやdatを隠して誰が得するのか説明しろゴルァ(゚д゚) ゲイツか?
subject.txtを使った荒らしが減る。
TCPの3-Way-Handshakeは重い、という話をきいた ことがあったので、あちしのツールではKeep-Aliveによる Persistance-Connectionがなるべく途切れないように しているわけだですけども、intervalがあるなら、当然 Connectionは毎回切れるわけで、そういうものなのか、と。 intervalを間に挟んだり、複数の鯖を交互に使用したりして 軽減される負荷というのは、Keep-AliveしてHandshakeを 削減するのよりも大きいのかな?という疑問はありますです。
847 :
Dream ★ :02/03/27 00:41 ID:???
>>844 一定の枠を用意して、みたいないいカタすると官僚のようだけど、
ようするに、サーバ維持策を打ち出して、賛同して参加してくらさる
ツール作者さんには、subject.txtやdatを公開するって形だと、どうなんでしょね?
#ずっと私は、それを提案してきているんですけど
#誤解されていますか?
公式発表的には、subject.txtは隠されているのですが。 つか、あなた、ブラウザから取得できますか。
>>847 それなら隠すといわずに取得に制限を加えると言った方がいいのでわ
850 :
Dream ★ :02/03/27 00:44 ID:???
>>846 インターバルを挟む、という思想は、ツールによる断続的で集中的な
リクエストを防ぐ、という視点に大きく立脚しちゃっているものだと思います。
作者さんの視点で、どういう方法が、サーバの負荷と転送量という問題に対して
効果的である、という、啓蒙というか、教育というか(私みたいなのに対して)
をしていただけると、とてもうれしいです。
>>846 >>725-726 ではとっとと切断、って言って終わってるけど、
もうちょっと考えるべき事だと思う。
「じゃあ Keep alive せずに Rapid fire しろっていうことか?」
と誤解する人が出るのが怖い。
852 :
Dream ★ :02/03/27 00:46 ID:???
>>849 ああなるほど。
#ここまでに、このスレッドでも前スレでもしつこくさんざん書いてたから了解済みだ
#という思いこみでした。
#すみませんでした
853 :
Dream ★ :02/03/27 00:48 ID:???
>>851 是非お願いします。
SYN ACKの認証が正直きつい、というのがそもそも、dat直取りで巡回を
されたくない、という話の始点だったと思うんです。
私自身は、その程度の認識しかなく、
「だったらどうやるのが効果的なのか?」
については、是非お聞かせいただきたいと思っております。
854 :
Dream ★ :02/03/27 00:52 ID:???
もちろん、dat直取りのもう一つの要因としては
転送量に影響する、というところもありますけど、これは、
要求されるのはHEAD情報だけで、datを直に取ってるわけではない、
というお話だと思いましたが・・・・
その場合でも、SYN←→ACKのハンドシェイク的に、サーバ負荷につながっていないのか?
とか、いろいろ、お聞きしたいことがありますです。
あと夜勤さんに、
http://www.yakin.cc/pv200201.html には、HEAD要求は含まれていますか?というのを確認させていただきたいと思います。
PVという言い方の印象では、GETのみ、で、ページ単位のカウントのような気がします。
(イメージファイルとかそういう者を除いている、という意味で)
お願いします。
場合わけをきちんとしようや。 ・更新があるばあい ・Head(stat) [+ Get(read)] ・ims-Get(stat&read) ・ない場合。 ・Head(stat) ・ims-Get(stat) で、どっちにしろ、更新があれば中身をみたくなるわけで、 むしろIf-Modified-SinceをつけたGetの方が軽いのでは? というのがすくなくとも8ヶ月前の結論だったわけですが。
>>854 あの〜普通に巡回といわれるものはすべてIf-Modified-Since付きのGETですよ。
巡回時に自動でHEAD→GETとわざわざ無駄なことやってるものは即刻修正すべし、です。
858 :
Dream ★ :02/03/27 01:01 ID:???
>>857 ああ、はい。
巡回じゃなくて、更新チェックですよね。はい・・・
>ようするに、サーバ維持策を打ち出して、賛同して参加してくらさる >ツール作者さんには、subject.txtやdatを公開するって形だと、 >どうなんでしょね? ところで、これは現在のsubject.txtの状態と具体的に どのあたりが異なるのでしょうか?
860 :
Dream ★ :02/03/27 01:07 ID:???
>>859 いまはhtaccessやcgi内部で判別してアクセス受け付けてるようですが、
たとえば、基本認証使ってリクエスト受ける、というイメージです。
イメージ的には。
>>860 それが何の解決になるの?鯖負担が増えるだけでは?
荒らしツールはどれかのツールに簡単になりすましができるけど。
>862 ツール(と作者)、じゃないかな。 セキュリティ的にはヨワヨワでないも同然だけど、 そこを不正アクセス禁止法で補助するような感じがする。
>>865 違うはずなんだけど、まとめ役がそっちに話を持っていくんだもの。
>>860 イメージとか、イメージ的では正直意味がとれないよ。
具体的な説明求む。
868 :
Dream ★ :02/03/27 01:22 ID:???
>>867 すいません。イメージなイメージ的にエクスキューズな単語ですけど、
>たとえば、基本認証使ってリクエスト受ける
これそのものずばりではないかと愚考します。
ん、だから普通にsubject.txtをGETしても HTTP/1.1 401 Authorization Required が帰ってきて、ちゃんとパス送らないと 受信できねって事だろ。 で、このパスを勝手に解析すると不正アクセス防止法に触れる可能性があると。
871 :
Dream ★ :02/03/27 01:25 ID:???
>>865 荒らしが過負荷の要因になっていない、または、別の手段で対応が出来る、
ということであれば、そういう仕組みは一切要らないかと思います。
たとえば、特定の業者がdatクロールして利益を得ようとしているわけです。
たとえば、全くランダムなdatから書き込みを抽出して、それを、
subject.txtで特定のスレッド拾って、bbs.cgiにPOSTしたりしているわけです。
そういう行為を、負荷低減策として検討する必要がないのであれば、
datもsubjectも、現行のままでよろしいのではないかと思います。
>>871 それが問題なんだからそっちを対処しようよ。
手に入れたデータまたはその統計を商業利用しようとしている
ところから金を取れるように何か利用規定を設ければいい。
具体的には抜き打ちでIP統計とって、異常に多いところの
IPがどっかの会社だったら 「金払え」 って言えばいいよ。
抜け道はあるかもしれないけど、それはそれで
バレた日にはその会社は2ちゃんねらに潰される
874 :
873 :02/03/27 01:31 ID:???
抜け道はあるかも → 抜け道はたくさんあるけど だった。 少なくともちょっとは金取れるようになるよ。 そしてその金で回線増強なりなんなりできる、と。
875 :
Dream ★ :02/03/27 01:32 ID:???
>>873 でもですね、やっぱしあれなんですよ。
荒らしが発生していない日でも、厳然としてサーバはぱんぱん
帯域かつかつ。なんだそうです。
876 :
867 :02/03/27 01:32 ID:???
>>868 いや、基本認証使ってリクエスト受けると、基本認証する分だけ
負荷が増すと思うんで、その辺どう考えてるのか知りたいなと。
現状だとUAをモナジラと詐称するだけで、
荒らしツールだろうとなんだろうとsubject.txtは受信できちゃうわけで、
しかもそれは法にはふれない。犯罪じゃない。
(UAを偽る=鯖を騙す=詐欺罪って話もなきにしもあらずって感じらしいが)
そこを認証にすれば、不正アクセス防止法違反という立派な犯罪にできる。
だから荒らしツールを抑制できる。
悪質なら訴えれば逮捕される。
って事だな。
まぁ、俺ならそんな事されたらsubback.htmlで同じ事するけどね。
それもなくなったとしてindex.htmlから生成すればいいし、
それもだめだったら
http://pc.2ch.net/test/read.cgi/software/1016905060 ←ここのキーを
現在時刻からさかのぼって存在をチェックしてランダムに荒らすようにだってできる。
ブラウザで見れてカキコできる時点で、なんでもできるわな、そりゃ。
つか、むしろそういう規制された方が燃えるね。
なんとしても荒らしてやろう!ってな。
878 :
873 :02/03/27 01:34 ID:???
>>875 この話は批判要望に書くべき内容だった。すまんこ。
荒らしが原因の日もあるだろうけど問題なのは
慢性的にクロールしてる企業がいるで重い
ってとこかと
かちゅーしゃのアクセスが多い、ってのはそういう企業が作ったツールが とりあえず有名なかちゅーしゃのUAを偽ってる、ってパターンが多かったりしてね
でもそれは、オープンソースの死だよね。 dat、subject.txtのgetにpassが必要で、 それをツールに埋め込んでしまう時点で。
881 :
Dream ★ :02/03/27 01:38 ID:???
なにか起死回生の良いアイデアありませんでしょうか?
>>880 >>768 で一度指摘されたが、返答なし
オープンソースの場合、隠しているとはどう考えても言えないから
法に頼るのも難しいと思われるが
883 :
877 :02/03/27 01:38 ID:???
>>880 パス埋め込んでもかんけねーよ。
認証なんてなんの暗号化もされてないんだから、
ローカルでプロクシ立てて通信内容のぞき見れば、
すぐにパスなんて分かるっつーの。
仮にプロクシ立てられなくてもTCP/IP通信内容をのぞき見るツールだってあるんだし。
というか自分がなにを発信しているか、受信しているかはすぐわかる。
885 :
Dream ★ :02/03/27 01:42 ID:???
BASIC認証はたとえなので、Digest認証くらいは 使うものだと当然思っていましたが、、、 別にこれがSSLのClient Certificationでもそんなに 話は変わらないと思うのですが。
887 :
Dream ★ :02/03/27 01:45 ID:???
誰かの書いた内容について、批判したり、だめな面を指摘するのは すごく簡単だと思うんですよね でも、ここ重役会議やっているわけじゃないんですよ。 どうしようかね?って話してるつもりなんです。 私の提案に不具合や不足があったらとっとと引っ込めます。 良い案を考えていただけるととてもうれしいんです。 (否定すんなよ、ていうんじゃないですよ、もちろん(笑))
だから平凡なパスを埋め込むというのは愚行。 送信内容の一部を暗号化して・・・ってのなら効果はあるけどね。 一部にPGPを使うとか。(遅そー)
そもそも、大体subject.txtをいかに強いセキュリティをもって隠したところで、 subback.htmlだってなんだってあるんだから無駄って話でしょ。
890 :
Dream ★ :02/03/27 01:47 ID:???
>>886 ええ、仕様を決めているんではなくて、要求分析というか
まだそこまでいっていないブレインストーミング的な話ではないかと思います。
そう宣言しているレスが、残っているはずです。
891 :
Dream ★ :02/03/27 01:48 ID:???
>>889 なんでそこではなしがとまっちゃうかな?
ずっと同じ方ですか?
じゃ、どうすればいいの?
公開鍵が公開されてなければ(ツール内に隠蔽されてれば)いけるかも。
893 :
892 :02/03/27 01:49 ID:???
しかしこの方法はソース丸見えなのには(j2ch-cashだっけ?)使えないな
895 :
Dream ★ :02/03/27 01:51 ID:???
>>894 いや、あなたがそういう感想なのはわかりましたので、
だったらもうあなたの意見わかったのでもういいです。おつかれさまでした。
どうせやられるんだからsubbackよりsubjectの方がまだましだ。 異様にアクセス多いIPだけ完全アクセス禁止にしろ。
>>894 今回の問題については、100% 完全無欠のシステムを作るのは無理。
だけど、できることはあるはず。UserAgent 詐称だって、
それをやる人がどれだけ存在するかどうかの問題。
規制したことで、トータル的に負荷が減るならやる価値はある。
そのためにも統計とデータが必要。
これからの2ちゃんねるは、様々な実験が必要なんだよ。
>>896 そうだね。それが一番現実的かつ簡単。
そのIPアドレスがどっかのプロバイダでないにもかかわらず
アホみたいにアクセスが頻繁だったら禁止ってのはいいかも。
ツール側と鯖側でsubject.txtを強度な暗号化して通信したとしても、 結局自分のPCから発信してるわけで、 串とかで通信内容のぞき見られたら、 荒らしツール、dat総ざらいツールでもそのまま使えちゃうんじゃないの? まったく同じリクエストを送信するだけじゃないの?
>901 は、SSLについてもっと勉強してください。
>>900 先日のkaba鯖アタックのときは、対策が非常に効果的だったよ。
対策してないときは、ロードアベレージ 150 は軽く越えてたはず。
>>901 でも、その行為は、これまでのグレーではなく、
レッドになるわけですよね?法的には。
「そういう使い方をされたくないために意図された」
ものを乗り越えるんですから。
>>903 そうなんですか?
対策効いて沈静化したのか、攻撃終わって沈静化したのか
わかりませんでした。
どなたか批判要望板の容量を教えてください。 1000行く前に1024kの制限でdat落ちする可能性がおおいので 長文レスが多いもので、、、って漏れか(w
>>909 このすれも300kも全然いってないから大丈夫
>>910 こっちあげでいって、950くらいまで使いますですか?
わたし、いったんお休みいたします。
早めにスレ立てましてすんません。
GickoBrowser修正改良版 Information (2002/03/26) 暫定的にかちゅのUAを借りてsubject.txt取得するようにしました
>>912 なんでかちゅ・・・・。
しかもそれって実質 kage の UA よね・・・。
◆hAnYaNVA さんじゃないけど、インターバルの件でどうしても納得いかない。 「インターバルを設ける理由」から 「巡回を不便にして巡回自体(回数/スレ数)を減らす」目的を除き 純粋に「複数のリクエストを送る必要がある」場合。 Keep-Aliveしたまま接続断を待つ/サーバーを待たせるのは論外とし、 同じサーバーに対してのconnectionは 一つに限定する(タブブラウザなどは複数?)場合、 本当に、 connect-request-response-close -interval- connect-request-response-close -interval- connect-request-response-close -interval- が、 connect- request-response-request-response-request-response -close よりサーバーに優しいか、結論は出ているのかな? 詳しい条件等は全然知らないので、2chには当てはまらないかもしれないけど Apache自体はKeep-Aliveの実装によって50%近く負荷が下がったらしい。 game鯖等が軽くなったのは、インターバルを設けた効果ではなく、 単にread.cgiのrawモードを不可にした効果に思えるのだけれど。
リクエストの集中が問題というかもしれないが、 仮にKeep-Aliveにしも、サーバーが処理するリクエストは、 各接続に対して同時に1つだけなのだから 接続要求の度にacceptすることを考えれば Keep-Aliveしたままの方がトータルの負荷は少ないと思う。 そもそも、同時接続数が256では足りないような状態のサーバーに対して 単独のクライアントからのリクエストが連続しない程度で 負荷分散になるとはとても思えない。 それでも、Keep-Aliveにしたら次のリクエストを待つ間の idleなconnectionが負荷を高める原因だと言うのならば、 リクエストをパイプラインして送ればいい。 connect- request+request+request - response+response+response -close これならidleなconnectionも発生しないし、無駄なconnect/closeもない。 HEAD等の軽いリクエストを数十件まとめて送り レスポンスにかかる時間を比較しすれば サーバーが短時間で処理を完了して解放されるのがわかる。 どこか間違ってる?あるいは何か見落としてる?
話が追いきれてないけど、書いとく。 # 今は話がループしてるっぽいし。 ●で認証を行うか、ツールで認証を行うかと聞かれれば、 私は●を進めますが。何故かというと 1.ツール認証はhttp内で行うには抜け道が多いから 2.●で認証は無料ユーザにも発行することができ、 ココの負荷を把握することができるから。 の二点が理由なんですが。 ●の発行で無料用の話って出てないよね?
【2ちゃんねるビューア】 巡回機能の巻。Part3
http://pc.2ch.net/test/read.cgi/software/1016905060/l50 でいま、2ちゃんの負荷低減とかを話してます。
ところで、2ちゃんねるはいま、htaccessを使ってRewriteCondをつかい、
各ツールなどにdatなどを供給している訳なのですが、
「httpd.conf」に一本化し、htaccessを一切使わないようにすれば、サーバの負荷低減がはかれる、
というお話をなさった方が居られました。
お聞きしたいのは、この方法をに変えると、どのくらい負荷が低減するのか?
といった、見積もり的な試算は可能なのか?ということと、
具体的に、これを裏付けるベンチマーク結果などは、存在するのか?
という2点です。
もし、おわかりの方、この問題に詳しい方が居られましたら、上記スレッドで
お話をいただければと思います。
よろしくお願いします。
マルチポストしてきました。うざくてすんません。
>>919 はい。
劇的に効果があるんだったら、再度提案してみたいし、もし、
劇的に効果があるなんて言えない内容だったら、もう忘却してしまったらいいかと思っただけです。
>>917 を夜勤に無理強いする。
負荷軽減を要望するが、変化を望まない夜勤がボトルネック。
>>920 今すぐ忘却してしまっていいと思います。
923 :
918 :02/03/27 03:59 ID:???
Dream ★さんスレ立てありがとうございます。 でもソフトウェア板…
やっちゃったようですなぁ・・・
シロートの思いつきですが、datにgzipでアクセスする代わりに、 あらかじめbbs.cgiが圧縮データを生成して、それを普通にgetしたら サーバ負荷と転送量の二律背反は緩和されません? アクセス頻度は書き込み<<読み込みなハズだし、 bbs.cgiも一カキコだけ圧縮してアペンドすれば負荷は小さそうだし。
httpd.confって、それ自体にスクリプト噛ませて、動的に認識させることが出来ましたよね? 特に、Perlディレクティヴかなんかを使えたと思うし、とにかく、夜勤さんに 負担や負荷かけない方法がとりえるんであれば、お願いしてみてもいいかと思いました。 夜勤さんが「出来ない」といっている事情と、こちらがデータそろえて、方法も添えて、 これでいかがでしょう?っていう提案をして、それを天秤に掛けて判断していただくしかないでしょう。 「その方法だと負荷が軽くなる」 という一言だけで、人を動かそうなんてしちゃだめです。 やっぱり、根拠と方法、目論見見積もりがなければ、人の心なんて動きません。
>>923 あーおれってばかだ。ごめんなさい。いますぐいきます。
>>925 gzip圧縮したものに何か追加するには
全部解凍→追加→再圧縮しなくてはならないのです。
>927 つーか本来はソフトウェア板にあって然るべきスレッドだったり。。。
>928 ええ。ですから一レスごとにgzipしたものをアペンドできないかなと。 クライアントも1レスずつ解凍する実装が必要だし、圧縮率はgzip本来の レベルからは程遠い悲しい物になるかもしれませんけどね。 そうでなく書き込みごとにdatから丸ごと生成するとしても、bbs.cgiが実際に動作する 回数がread.cgiやdatがアクセスされる回数よりも少ないならメリットがあると思います。
ついにソフト板にもかちゅユーザー進出か。 WIN板とまたがって幾つスレ立てれば気が済むんだ。
>929 あ、補足どうもです。 サーバ自体の(html生成の)動作のためにも 今まで通りのdatの生成はしたほうがいいと思います。
>>931 read.cgiが表示するために必ず解凍しなくてはならないとなると
負荷の面で相当厳しいと思われます。
夜勤氏にはあきらめて頑張ってもらう。 これが今夜の結論だな。
>>926 夜勤たんが「できない」って言ってるのは、割に合わないからだろ。
結局金だよ。この問題は。
だいたい全部読んだが、 とりあえず dream 氏はもう少し勉強してくださいという事でしょうか。 http と tcp について。 それと、技術的な方法でツール作者さん達にも手伝ってもらいたい ならせめて2ch管理側は負荷についての具体的な数値 くらいまとめて出すべきだね。
>>937 つうか、誤爆すんなよ、ってのをまずいうべきなんじゃないの?(笑)
>>926 httpd.confはいじれないって、かなり前から夜勤さんが言ってなかった?
>937 他人に「もう少し勉強して下さい」て言っておいて、いいっぱなし? 具体的な数値出せ、っていって、なんの数値が具体的に欲しいのかはいわない? それはいくらなんでも、かたておち?
>>940 なるほど・・・。
でもさぁ、結局は、夜勤さんの
>>314 発言を
完全に無視していると捕らえられてもおかしくない意見だよね。
>ええ。ですから一レスごとにgzipしたものをアペンドできないかなと。 そんなことをしたら、圧縮の効果がほとんどなくなりますよ。 実験してみればすぐにでもわかることでしょうに。
>とりあえず dream 氏はもう少し勉強してくださいという事でしょうか。 >http と tcp について。 前も書かれてたと思うけど、彼は事実のとりまとめに徹して、自分の意見を 言う時は名無しになるべきだと思う。正直引き気味
>>943 >>926 の話は理解してますってば。
私が言いたいのは、2chの負荷軽減に付いて議論しているこのスレ中で、
夜勤さんは
>>314 の発言をされているということです。
負荷軽減の効果うんぬんの事を話している場で、httpd.confをいじることを
したくないという意思表示をしていると思われますが?
>>946 >>926 を見る限り、Dreamが夜勤さんにやってくれっていっているんじゃなくて、
httpd.confをいじればパフォーマンス良くなるからやれっていうんだったら
それなりの手順用意できるの?っていう話に見えるのは俺だけ?
>>947 ええ、そうなんですが、
最終的に夜勤さんにやってもらうしかない方法であり、かつ、
夜勤さん本人が拒絶している方法(httpd.confいじり)について、
検討していることには変わりないと思いますが?
夜勤さんの意思を尊重するのであれば・・・ね。
>941 申し訳ないですが、言いっぱなしです。 dailup user が云々とか本質的でないこと長々と言ってたり、 自分でツール作ればいくらでも回避できそうな案ばかりだったり、 もうこれはせめて >945 の通り名無しで発言くらいにとどめないと、 読んでるだけでおなかいっぱいですよ。 というわけで >945 氏の意見に ++;
950 :
一 五明 ◆DKXvv9Lw :02/03/27 08:49 ID:qKwdsRqr
>>645 いや不揮発の馬鹿高いメモリじゃなくて、サーバー飛んだらログ全滅でも
いいからってこと。どうせ飛ぶこと覚悟の負荷隔離鯖だし。
そのそも2chは過去ログ残さなくてもいいような気もする。
現状でも住人が自主的に過去ログサイト立ち上げてる例がいくつかあるし、
2ch側が残さなければより一般的になると思う。
ただ.dat落ち寸前のを拾うためのアクセスが殺到する可能性を考えて
950-1000だけは一定期間読めるようにする等は要るかも。
…過去ログ有料検索とか言ってる現状では期待薄か。
>>944 その通りだけど考え方としては面白いかも、20レスごとくらいにして。
(最大19レスの未圧縮がくっついた圧縮ファイル…ちょっと読み方が
複雑になりそうだが)
どうせブラウザでは読まないし、専用ツール前提ならlzoみたいな軽い圧縮
アルゴリズムも使える。
952 :
ほげ :02/03/27 08:58 ID:DEONoPUS
<独り言>tcpわかってhttpわかって、CでツールかけてPerlかけて、この巨大な 案件すっきりまとめて人望もあって理にかなったことを常に冷静に言える奴って こんなばかげた話なんかに参加しないよな。</独り言>
>>952 ここに書き込んだあなたは・・・。そして私は・・・。
お互い精進しましょ。
HTTP でデータ GET して多少解析して表示するなんてのは ネットワークプログラミングしたことのある人なら1日も要りません. 技術の話なのに性善説でインターバルなんてのは臍で茶がわきます. 便利に使えるツールにするのは別の話.
>>944 んーそういうことなのか...
てっきり、bbs.cgiでdatを生成するときについでに圧縮かけたものも作ってしまえってこと
かと思ってた。
>>955 それJOKESIZE★の方じゃないのか?
>956 両睨みでいいと思います。 一括圧縮ファイルの同時生成なら現在の転送量で負荷削減。 差分圧縮ファイルへの追加なら転送量が増えるけどさらに負荷が下がる。 現実的なのはおそらく前者でしょうね。
>>945 が良いことを言った。
正直、司会者としての根性は見上げたものがあるので、その役目に徹してほしい。
>>961 おお、やっぱ皆も思ってたのか。
あの意見のしかたはマジで勘弁して欲しいと思ったり。
頑張って反対してる人もいるけどさぁ…。
そもそもここは議論の場なんだから。
>>961-962 (゚д゚)ウマー
んじゃ、個人的な見解は一切言わないつー事でいきます。
もういいたいことはいったし。
どーせ仕切やなんて、うざがられてナンボですし。ただでさえ。
仕切ってなくてもうざい奴だろうけどな
>>963 いや、そうじゃなく、まとめる場合にそのハンドルにしてほしいんです。
Dream ★ で絞りこめば流れが読めるようにしたいんです。
966 :
ひろゆ子 ◆HRUNYAXA :02/03/27 22:37 ID:BbZZ0lbo
過去ログを読んでませんが、、、 インターバルをツールに実装すると、patchが出まわるので、 正直者がバカを見ると、、、ソース公開してるツールもありますしね。 んで、サーバで実装するとサーバ負荷が増えるので、 そもそも意味がない。 ということで、IDがあったら巡回できて、 なければ出来ないというのが落としどころになるかと。
>>966 夜勤氏を説得しる。
サーバがわの対処で今の数倍のキャパ増大見込めるんだから
それやればいいだけだろーが
早晩破綻しそうだがなw
971 :
一 五明 ◆DKXvv9Lw :02/03/28 06:58 ID:PzIpcrZF
>>958 8月危機の際に既に各鯖1Gづつ積んでて大半がディスクキャッシュ
っての読んだ気がする。それをRAMディスクにすれば要らないかと。
ログ消滅の危険性は別の議論として。
>>971 あげんなや。
そういう話は、ソース付けなきゃただのガセ
それから、メモリは欠乏中。vip鯖は512MBでもう足りない。
よく考えてから言ってけれ。相手にされなくなるよ。
>>972 >>529-536 を見る限り、スワップ使ってないんだから、欠乏とはいえないんじゃない?
メモリは欠乏というか、あればあるだけキャッシュもしくはバッファとして
有効活用される。WindowsNT と違って、Unix はメモリをかなり効率よく使ってくれる。
さらにメモリを積めばパフォーマンス良くなるのは認めるけど、
それよりも CPU の負荷を何とかする方が先。
>vip鯖は512MBでもう足りない。 それはあれじゃないかな。apacheとかperlとかの プロセスが乱立しているからでしょ? じゃあ、プロセス低減策をとって(read/bbs.cgiが直接Listenして、 selectによる多重化をするとか)その上で、キャッシュデーモンで オンメモリ処理への道を開くのが王道。
>>974 クズみたいなセキュリティの穴
自前主義は万能とか思ってない?
>>974 apacheより出来が悪いものが完成するに100ペソ
977 :
次スレ :02/03/28 20:51 ID:???
埋め立てるなと警告しても止めない悪質な奴だからな。
埋め立て屋ってなに?
香取先生見てる?
986 :
954 :02/03/30 01:25 ID:???
万能とまでは思っていないが、汎用よりも、 専用のほうがパフォーマンスを稼ぎ易いのは事実。 別にapacheよりも高機能にする必要はない。
[壁]_・)
あ、漏れ仕切り過ぎてたかも… そうだね ちょっと反省してる 言いたいこともまだあるけど これ以上居座ると荒れるだろうから去ることにするよ みんな がんばってね かちんと来て俺も脊髄反射してたかもね ゆるしてね いい夢見ろよ !
かゆければ、かけ。
994 :
:02/03/31 00:08 ID:???
995 :
:02/03/31 00:09 ID:???
996 :
:02/03/31 00:09 ID:???
997 :
:02/03/31 00:09 ID:???
998 :
:02/03/31 00:09 ID:???
999 :
:02/03/31 00:09 ID:???
1001 :
1001 :
Over 1000 Thread このスレッドは1000を超えました。 もう書けないので、新しいスレッドを立ててくださいです。。。