ベイズ VS 最尤

このエントリーをはてなブックマークに追加
1デフォルトの名無しさん
一流プログラマーの常識
ベイズと最尤について語りましょう。

関連リンク
パターン認識とニューラルネット
http://www.neurosci.aist.go.jp/~kurita/lecture/prnn/prnn.html


                ,,-‐''""''ー--,- ||>>3 遅せーんだよ犬食わすぞデブチョッパリ
        .|"""""" ""    \\ ... || >>4 とろいねぇダンゴ虫
:::::::::::::::::::::::::::  | /// ̄ ̄;     . || >>5 ホモ面死んどけ
::::::::::::::::::::::::::::::: |   /   / ̄`|      ..|| >>6 海賊版でも買っとけ
:::::::::::::::::::::::::::::::::|   |\_/  /     "'|| >>7 七三メガネ邪魔なんだよ
  ::::::::::::::::::::::: |   \__/   ""  ..|| >>8 皇太子犯すぞ?
:::::::::::::::::::::::::: :| \\    "" //  .|| >>9 植民地にするぞ
        :|    2  ゲ ッ ト  / ) >>10 不審船送り込むぞ
        """"""""""""""""  / /|| >>11以下は北鮮人
                      / /
                    ( (    /⌒ヽ
                     ヽ ヽ ⊂ ̄ ̄ ̄⊃ <ぬぴぴぴぴぴぴぴ!!!!
                      \\<ヽ`Д´>     n   ウリナラは永遠に不滅ニダ!!!
                       ハ      \    ( E)
                         |  朝 /ヽ ヽ_//
3デフォルトの名無しさん:02/10/18 21:56
何が何でもベイズ推定を使う世の中になってしまってる気がする
4最犬:02/10/18 21:59
本当は>>1を叩こうと思ったんだが、家のMS-IME2000、最尤法が変換できねーでやんの
大馬鹿>>My IME
5デフォルトの名無しさん:02/10/18 22:06
4は最尤の読み方がわからない(プ
6デフォルトの名無しさん:02/10/18 22:07
1のリンク先って
入門者にはいいかも。
7デフォルトの名無しさん:02/10/18 22:08
統計なのか情報なのかはっきりして欲しい
ベイズは計算量が多いからだめぽ。



9デフォルトの名無しさん:02/10/18 22:11
尤も犬らしい
ベイズ予測なんて、
高卒とDQN大卒が大部分を占める2chでする話題ではないような。
.NETみたいな低俗な話をしよう
11デフォルトの名無しさん:02/10/18 22:14
必死に4は調べました。
しかーし!!!!!
プププ
12デフォルトの名無しさん:02/10/18 22:15
これ使うと競馬に勝てますか?
うちのIMEでも最尤は変換されない。尤度で出て来る。
14デフォルトの名無しさん:02/10/18 22:18
語れよ
15デフォルトの名無しさん:02/10/18 22:22
競馬なら、ベイズの方がいいのでは?

データの確からしさが高い物は最尤
低いものはベイズ
>>15
ありがとう。勉強してみます。
17デフォルトの名無しさん:02/10/18 22:31
事前確立と事後確立の違いがわからない・・・・
お前ら、それぞれの定義を貼って下さいませんか
19デフォルトの名無しさん:02/10/18 23:01
20デフォルトの名無しさん:02/10/18 23:24
さぱーり
21デフォルトの名無しさん:02/10/18 23:43
>>19を読んでみたのですが、
派ラメトリックモデルにおいては、
パラメータが不明な確率分布関数を推定するものだという理解をしました。
これができると競馬に応用できそうなんですが。
それで、

1.多変量正規分布 モデルの場合には、最尤解を解析的に求めることができ
2.解析的な結果は正規分布などの一部 の分布関数属についてのみ可能。

など前提条件が必要なようなんですがこの辺の意味がいまいちわかりません。
正規分布で表現可能な確率分布に限定される意味でしょうか?

もう一つ。
これは一般に自分でコーディングするものなのですか、
ライブラリとか普通に転がってるものですか?
競馬はnonparametricじゃないの? AICとかの方がいいと思うんだけど。
それともparameticで扱えるほど凄いモデルがあるのか。
23デフォルトの名無しさん:02/10/19 00:02
>>21
俺は高卒なんでよくわからんが
パラメトリックモデルというのは、
ある確率?分布を表現するのにいくつかの
パラメーターで表現できるものをパラメトリックモデルというらしい。
例えば、正規分布は「平均」と「分散」で表現できる。
一方で、ノンパラメトリックモデルとはニューラルネットのように
パラメーターがたくさんあるものを言うのだと思う。

ベイズとか最尤でパラメーターを推定するみたいだね。

普通、こういったアルゴリズムは自分でコーディングするものだと思うよ。
むしろ、ライブラリは決まりきった処理(スタックとか)で
使うものだと思う。

コーダーを卒業するには、こういう知識が必須なんだろうな。
2423:02/10/19 00:05
競馬には応用できそうだね。
直感的な意見だけど、ベイズの方が良さそう。

面白そうな話なので、いい本があれば教えてください。
>>23
> 一方で、ノンパラメトリックモデルとはニューラルネットのように
> パラメーターがたくさんあるものを言うのだと思う。

違う。
パラメータつきのモデルを考えそのパラメータを当てようと頑張るのが parametric
パラメータつきのモデルを考えないで分布を当てようと頑張るのが nonparametric
>>22
モデルというのは、確率分布の形のことですか?
かなり複雑なものになりそうなきもするのですが、
以前タイムというか着差のヒストグラム書いてみたら、
見た目2項分布かポアソン分布に似ていたので、
そのあたり使えないかな?と考えてます。
ノンパラメトリックについてはまた>>1を読み進めて理解を進めてみます。

>>23
ある関数を仮定してる時点で既に汎用的には処理できなさそうですね。
やっぱちゃんと理解してからでないと作れないんだろうなあ。
27デフォルトの名無しさん:02/10/19 10:01
>>26
>そのあたり使えないかな?
あるデータの分布を、ある関数(ポアソン分布とか2項分布とか、直線、2次関数)
に近似するだけなら
最小2乗法が使えるよね?
それがすなわち最尤法だっけ?
ここでベイズを使う事もできるわけだけど。

そうそう、特定の分布を仮定しているなら問題なく使える。
それが競馬に適した推定方法かどうかはまた別。

>>26
推定の前提は、まず「真の分布」なるものが存在すると仮定すること。
そしてその真の分布を模倣可能であると仮定されている分布(の族)をモデルという。
具体的には2項分布やポアソン分布のように式で表されるものを指すことが多い。
29デフォルトの名無しさん:02/10/19 14:14
というか, 競馬とかが本当にパターン認識の枠組みで扱える問題かどうかを
見極める必要があると思う.

で, このことはどのような特徴量を取ってくるかと関係がある.
いくらベイズがデータの確からしさが低いものに有効だといったって,
互いに相関のある特徴量を見つけないと, まるで役に立たない認識器ができる.
逆にそのような特徴量を見つけることができれば, ほとんど勝ったも同然.

だけど, 過去何十年もの間, さまざまな猛者たちがいろんなデータを
見てきたにもかかわらず, いまだに必勝法がないということは ...
>>1 はパターン認識だがスレタイに即していうなら
競馬に対するモデル推定の問題を戦略別に考えるのが面白いのは確かだろう。
またオッズの時間推移を調べることで投票者がベイジアン的なのか否かを
どれくらい知ることができるのかは真面目に検討してみる価値はあると思う。
着順が当たることだけが競馬の楽しみではないんじゃないかな。
>>17
漏れもシロートだけど、
東京大学出版会『実践としての統計学』4章にあった説明は分かりやすかったよ。
残念だけど、かなり長くなるからここには書かない。
条件つき確率P(A|B)=P(A∧B)/P(B)を定義とせず公正な賭というものの
公理から導くところがその説明のミソ。主観確率というのが分かった気がした。
>>28
ちょっと考えてみたんですが、
いろんな要素(過去数走のタイム、枠、騎手、その他)をベースに確率分布関数を推定するはずなのに、
一般的なパラメータで表現できる関数を仮定してしまうと、
最初の要素をどう利用すべきかわからなくなって混乱中です。

>>29
勝ちの=回収率100%越えとするならば、可能ではないかと思ってます。
自分の場合、集計とりはじめて350レースでの回収率が92,3%程度ですが、
競馬板などみてると、結構勝ち組もいるようです。

これって使い手次第でかなり応用範囲が広そうな印象ですが、
具体的にはどういった業務、業種で使われていることが多いですか?
今組み込み系へっぽこPGですが、ちと飽きてきました。
33デフォルトの名無しさん:02/10/19 23:50
>>32
予測と名がつくものならなんでも使うだろ。
もっと大きな目で見たらデータを扱う分野だったら
やっておいて損はない。
データといえばサーチエンジンとか。
予測といえば天気予報とか。

勝ちの利益は負けが補う事を考えれば
最良の予測システムができて、それを自分だけで使えるなら
儲かるかもね。
もちろん期待値のはなしね。

で、最初の問いには、
>過去数走のタイム、枠、騎手、その他
をパラメーターとする確率密度関数を作るんだろう。
ようするに
p(過去のタイム、枠、騎手、その他)=1位になる確率

ニューラルネットが一番手っ取り早そう。
>>32
> 一般的なパラメータで表現できる関数を仮定してしまうと、
> 最初の要素をどう利用すべきかわからなくなって混乱中です。

そういう場合は、用意したいろいろなモデルのなかから
AICのような推定量でモデルを選択するのが常套みたい。
>>33
> ニューラルネットが一番手っ取り早そう。

なんだか分からない問題に対するNNはうまく組まないと
自由度が高過ぎて学習に激しく失敗する場合が多い。
しかしNNをうまく組むというやりかたは、
自分で統計的手法を行なうのとあまり代わらない。悩ましい。

ともかく何か動くものを作って失敗してから考えた方が楽しそうだ。
36デフォルトの名無しさん:02/10/20 07:59
AICって何?
Akaike's information criterion 赤池情報量基準
雑にいえば手持ちのモデルから良いモデルを選ぶための指標量
他の指標量ではMDL(minimal description length)が有名
AICとMDLは考え方が全然違う

googleしたら赤池情報量「基準」と書いてある方が多い
しかし統計数理研究所のサイトでは「規準」がほとんど
よってgoogleするときは「赤池情報量」で引くのがお得ぽ
>>33
やはりニューラルネットって考えは自然なんですかね。
JRAの関連団体が提供している予想方法がそれを使ってるみたいです。

http://www.jra-van.ne.jp/next/mining.html

ただ多数に公開されてる上に、
同じ手法で後追いするのはかなり辛そうな感じですね。
>>38
JRAの関連団体なら勝率をあげる動機に乏しいと思われ
40デフォルトの名無しさん:02/10/20 20:41
>>38
それって的中率はどれくらいなのかな?

ニューラルネットって考えが自然ってわけではなくて
いい方法がないから、ニューラルネットにいれてしまえってとこかな。
ただ、競馬ならまともに統計データを活かせば上手くいきそうなきがする。
誰もやらないのは、
(競馬でちょっと儲けたい&&統計学に詳しい)
が常に偽なんじゃない?
統計学的に競馬は儲かりません、とw
これってベイズ的かどうかで結論が変わったりする?
ttp://queen.heart.ne.jp/cgi-bin/browse?msgid=%3Caorhjv%24394%241%40newsl%2Edti%2Ene%2Ejp%3E&ym=200210
42デフォルトの名無しさん:02/10/20 21:32
評価関数によるのでは?

もらえるお金を最大にするには
期待値最大の物を選ぶわけで。

話題自体、ベイズとかとはちょっと違う気がする。
ベイズはこんな感じ↓
http://forensic.iwate-med.ac.jp/aoki/vf/risshi.html
環境に依存しそう。
書いてあるとおり行動経済学とやらの範疇なんだろうね。
44デフォルトの名無しさん:02/10/20 21:37
http://www.ism.ac.jp/~kitagawa/yogo.html
AICについてちょっと見てみたんだけど、
これって理論的な裏づけがあるのかな?
なんでAICが情報量基準として有効なのかっていう。
経験的な裏付け
>>40
はい。導入前に検証した結果↓だそうです。
http://www.jra-van.ne.jp/next/index2.html

馬券的支店で言えば、、的中率というより回収率ですね。
買おうと思えばすべての馬券を買うことができてしまうので。

>(競馬でちょっと儲けたい&&統計学に詳しい)
>が常に偽なんじゃない?

これ昔から気になってました。
証明が不要なほど、もう結果が見えちゃってる感じなんですかね。
それとも相当数が注目するギャンブルより、
もっと有効に適用できるモノなんていくらでもあるんだからそっちを選ぶとか。
>>44
裏付けといっていいかは分かんないけど↓気持ちは分かる
ttp://www2c.biglobe.ne.jp/~m_naka/subsemi/sub2001/doc_aic.pdf
48デフォルトの名無しさん:02/10/20 22:05
自分の名前付けたのはすごいね
他人の名前だったら意味わかんないけどな。
・・・
アニキャラの名前をつけるyo
>>48
原文では an information criterion
AWKと違って自称じゃない
53デフォルトの名無しさん:02/10/20 22:52
>証明が不要なほど、もう結果が見えちゃってる感じなんですかね。
そんな事ないよ。
ギャンブルじゃなくて、純粋に勝ち負けの予想を
統計学的?にするのはそれなりに難しい。
競馬に詳しい人のほうが予想が当たるなら、
過去のデータを有効活用する方法があるという事で・・・・
誤解を招くような書き方をして申し訳ない。

ただ、ギャンブルとなると、
主催者?が儲かるような仕組みを作っているわけで
期待値の計算をすれば必ず損してしまうだろうと・・・・
54デフォルトの名無しさん:02/10/20 22:58
http://gooo.jp
無料掲示板
無料レンタル掲示板
55デフォルトの名無しさん:02/10/20 23:00
的中率が6.8%だけど、この予測精度が高いのか低いのかは微妙。
というのは、
例えば、10円玉を投げて表が出るか裏が出るかを
予測する事は不可能に近い事で、
競馬もそれくらいランダム性が高いのかもしれないという事。

個人的には、NNでタイムを予想するのはナンセンスだと思う。
もっと高精度な予測器が作れるのではないかと。
56デフォルトの名無しさん:02/10/20 23:13
AICなんとなくわかったけど、
クルバック・レイブラーって
何の分野の用語ですか?
57デフォルトの名無しさん:02/10/20 23:14
>>25
そのパラメータの意味が激しく問題になるわけだが。
バウワウ
59デフォルトの名無しさん:02/10/20 23:22
統計分析
http://lecture.ecc.u-tokyo.ac.jp/~okatu/statistics/carriculum.html

すばらしい先生だよ。
HTML形式の教科書を作ってくれるなんて。
60デフォルトの名無しさん:02/10/20 23:26
>59
生徒が作ってるんじゃ…
かわいそうに。

それと、PDFかPSだったらよかったのに…
なんでこんな偏った話題で盛り上がってるんだよ(藁
株屋が潜んでいる予感、密かに競馬生活者とかもいない?
ああ、そういえば「株屋のためのデータマイニング入門」みたいな本が最近出たな。
>>56
カルバックさんとライブラーさん
>>53
ごめんなさい、前半部分ちょっとわかりませんでした。
競馬に限らず何かの予想するってことは一般的に難しいよ。っていう意味ですか?
後半ですが、仕組みとしては、フレンチなんとか・・・ってことで、
主催者は儲かるようになってます。
何も考えないで買うと、期待値はおよそ75%ちょっとぐらいだったと思います。
主催者がより設けたいとするならば、売上を大きくすることですかね。

>>55
馬連の一点的中率ですね。
えーと適当ですが、平均すると1レース14頭ぐらいなので、
だいたい組み合わせ数は91通りですね。同じく何も考えないと的中率は1%ちょっと。
とうぜんオッズが重要になってきます。
>>62-63
株いいですね。俺はさっぱりですが。
なんか面白いネタあったら聞いてみたい。
>>56
カルバクライバー情報量とはダイバージェンスのことです。
68デフォルトの名無しさん:02/10/21 00:49
>>67
詳しい解説求む
>>68
確率分布 p(i) の q(i) に対するダイバージェンスは、
D(p||q) = 農i p(i) log(p(i)/q(i))
で求められます。
情報源 p(i) に対するモデル q(i) との差分(距離)を表すわけです。
>>69
検索したら KL distance といういい方もあったのですが、
見るからに D(p|q) != D(q|p) なのにどうして距離と呼ばれるんですか?
どこの業界の言葉なんでしょう。
>>57
parameter か hyperparameter かってこと?
72デフォルトの名無しさん:02/10/21 11:35
カルバクライバー情報量ってエントロピーみたいなもんなのかな。
>>70
距離は距離でも距離の定義のうち1つを満たす擬距離と呼ばれます。
下の定義で言えば、一番目の定義しか満たしません。

距離の定義
・d(x,y) >= 0, d(x,y)=0 <-> x=y
・d(x,y) = d(y,x)
・d(x,y) +d(y,z) >= d(x,z)
>>70
業界という言い方はちょっと違いますが
情報理論やデータ圧縮、経済・経営理論、確率統計分野で使うものです。

>>72
エントロピーの親戚みたいなものです。
標本空間が変化した際の情報量の変化値(増分のみだが)を表します。
ダイバージェンス(DIV)から、相互情報量やフィッシャー情報量も得られます。
75デフォルトの名無しさん:02/10/21 21:52
これを考えた奴は天才だな。
少し感動してしまった。
>>75
KLダイバージェンスのこと? それなら Gibbs が作ったらしいよ。
>>72
> カルバクライバー情報量ってエントロピーみたいなもんなのかな。

相対エントロピー(relative entropy)って呼び名もあるよ。
それより、カルバクライバーっていい方ははじめてみたけど単なるtypo?
>>64 が言うようにカルバック・ライブラーじゃない?
>>73
擬距離、そういえばそういうものもあったような・・・ありがとう
ところでわざわざ(擬)距離と呼ぶからにはその性質を使って何か分かるのですか?
例えばKL擬距離で何か興味の持てる位相は作れますか?

それはさておき、AICはKL情報量を使うから
情報量基準というのだというのをどこかで読んだ。
79デフォルトの名無しさん:02/10/22 20:35
80デフォルトの名無しさん:02/10/23 12:33
数学系の人に、工学的な話は無理だろ
つーか、統計は数学じゃないし・・・確率までだろ。
82デフォルトの名無しさん:02/10/25 01:35
終了か?
John 登場だしね・・・・ >>82
84デフォルトの名無しさん:02/10/26 23:19
Johnって誰?
85デフォルトの名無しさん:02/10/27 00:56
Johnって大学生?
どこの大学?
86デフォルトの名無しさん:02/10/28 00:10
>>83
アンチOOスレのOO派側の元気な粘着クン
ほれ、これだ
http://pc3.2ch.net/test/read.cgi/tech/1013995470/l50
87デフォルトの名無しさん:02/10/28 00:10
間違えた >>83 じゃなくて >>84
終了する必要性あるの?
89デフォルトの名無しさん:02/10/28 00:55
人工知能スレ終わってしまったので
リンクはココの奴をぱくって
こんな感じでどうかな?

前スレ
http://pc3.2ch.net/test/read.cgi/tech/982118979/-100

IEICE
http://search.ieice.org/
online journal
http://www.ai-gakkai.or.jp/jsai/journal/olj.html

パターン認識とニューラルネット
http://www.neurosci.aist.go.jp/~kurita/lecture/prnn/prnn.html
HMM
http://unicorn.ike.tottori-u.ac.jp/murakami/doctor/node1.html
数理計画・統計解析
http://lecture.ecc.u-tokyo.ac.jp/~okatu/
>>89
よく分かんないけど、知識表現とか自然言語処理とかはもはや違う?
NNはGAと同様に人工知能には数えない気が。
パターン認識とかORもなんとなく人工知能ぽくない。
91デフォルトの名無しさん:02/10/28 09:32
ニューラルネットとかGAを応用したアプリケーションを
人工知能って言うのでは?

ORってオペレーションズリサーチ?
>>89
悪くないと思う。
93デフォルトの名無しさん:02/10/28 12:07
>ところでわざわざ(擬)距離と呼ぶからにはその性質を使って何か分かるのですか
>例えばKL擬距離で何か興味の持てる位相は作れますか?

KL を距離的な量として考える際のポイントをいくつかあげておきませう。

1. 微分幾何学的な観点からすると、KL は距離そのもの
というよりも、距離の二乗に近いものと考えられる。
KL(p,q)≠KL(q, p) という非対称性は、情報幾何でいう
ところの双対接続という概念と深く関係している。

2. 統計学的観点からすると、KL は二つの確率分布を
観測データからどれぐらいの精度で識別できるかという
限界値を意味している(Stein の補題)。KL の非対称性は、
仮説検定における第一種誤り確率と第二種誤り確率の扱い方
の非対称性に由来する。
94デフォルトの名無しさん:02/10/28 12:08
3. トポロジー的観点からすると、KL は通常の距離と異なり、
エプシロン近傍系を考えても位相は定義されない、ということ
が知られている(有限集合上の確率の場合は除く)。これは、
三つの確率分布 p, q, r に対し、KL(p, q) と KL(q, r) が
ともに十分小さいとしても、KL(p,r)はいくらでも大きい値を
取り得る、ということの反映である。

4. データ圧縮論的観点からすると、KL(p,q) は分布 p の
もとで q に基づいた最適な圧縮を行った場合にエントロピー
からどれぐらいずれるかという「冗長度」を表す。

5. 確率論的観点からすると、KL(p,q) はレベル 2 の
大偏差原理である Sanov の定理におけるレート関数を
与える。KL は大偏差理論における要である。

以上

人工知能の話題は89さんが新スレ立ててくれるまでおあずけですか?
くぅ。
>>91
> ニューラルネットとかGAを応用したアプリケーションを

それもAIと考える人がいないことはないけど、
そればかりが目につくのがどうかなと。

> ORってオペレーションズリサーチ?

そうそう。>>89のeccのリンクはおおむねそれだよね。
まあ待ってる人もいるみたいだから細かいことは気にせずに
早くスレ立ててもらった方がいいのかも。
97デフォルトの名無しさん:02/10/28 19:14
>>96
逆に、96が考える人工知能の分野って何だと思うの?

人工知能の「知能」は
人間にできて、コンピューターにできない事をさしてると思う。
人工知能では、そういう事を問題とすればいいのでは?

>>93-94
すごく詳しいみたいだね。
お勧めの本ってあります?
98デフォルトの名無しさん:02/10/28 23:42
>>97
>お勧めの本ってあります?

KL をめぐるさまざまな数学を一冊にまとめた本があるといい
と思うけど、残念ながら見たことなし。(誰か書いて。)
今のところ、情報理論の洋書(Cover and Thomas, Blahut, etc.),
情報幾何の教科書 (Amari, Amari and Nagaoka, etc.) , 大偏差
の洋書(Dembo and Zeitouni, etc.), Csiszar の論文,等々で
個別的な知識を学ぶしかないでしょう。(何も全部読む必要は
ないが。)あまり役に立たない情報ですまん。今後とも KLを
よろしく。
99デフォルトの名無しさん:02/10/29 00:05
>>98
久しぶりに2chでいい情報にめぐり会えた気がする。
統計学観点とデータ圧縮論観点ていう見方が面白かったよ。
ただ、この手の話は数学が必要とされるから厄介だね。
内容自体はすごく面白いと思うけど。

ところで、誰か変分ベイズかMCMCか使って
簡単なプログラム作った人いない?
10096:02/10/29 01:43
>>97
うーん、
知能というものを作ることではっきりようとする分野
かな。 暗黙に了解されているけど分かってないのが知能じゃないかな。
>>89 には特に帰納推論に相当する部分が抜けてない?
その辺が漏れはもっとも知能っぽいものだと思ってるんで引っかかった。
英語でキーワードを書くと
"inductive inference" intelligence
abduction algorithm
とかかな。
流行の問題でしょ。
今は統計的学習が流行ってるだけ。
つい10年前までは帰納推論ばっかりだったわけだし。
>>93
>>78です。どうもありがとー。

>>98
> 今後とも KLをよろしく。
ちょっとワロタ
103デフォルトの名無しさん:02/11/05 00:17
保守上げ
C 最高!
さぱーり
ベイズは計算量が多いからだめぽ。
108レプタリアン教授 ◆Sx0UvVQevE :02/12/11 22:30
>>1
この程度で一流プログラマー云々が出て来る話かよ。まあ常識には違いないが。
109デフォルトの名無しさん:02/12/16 21:22
あげ
110デフォルトの名無しさん:03/01/06 12:49
終了?
111デフォルトの名無しさん:03/01/06 14:16
ベイズなんてあと10年もすれば無くなるよ。
1は流行におどらされてるだけだ。
18世紀から続いている理論があと10年で無くなるとは、とても思えない。
113IP記録実験:03/01/08 21:47
IP記録実験
http://qb.2ch.net/test/read.cgi/accuse/1042013605/

1 名前:ひろゆき ◆3SHRUNYAXA @どうやら管理人 ★ 投稿日:03/01/08 17:13 ID:???
そんなわけで、qbサーバでIPの記録実験をはじめましたー。

27 名前:心得をよく読みましょう 投稿日:03/01/08 17:20 ID:yL/kYdMc
SETTING.TXT管轄でないということは全鯖導入を視野に、か?

38 名前:ひろゆき ◆3SHRUNYAXA 投稿日:03/01/08 17:22 ID:rLfxQ17l
>>27
鋭いです。

73 名前:ひろゆき ◆3SHRUNYAXA 投稿日:03/01/08 17:27 ID:rLfxQ17l
>ところで、IPが抜かれて何か今までと変わることってあるのでしょうか?
・今までより、サーバが重くなる。
・裁判所や警察からの照会があった場合にはIPを提出することがある。
記念パピコ
ある日突然、ヌ即住人全員が中学生ちゃんねるに移民すればHiroyukiも考え直すだろ
>企業が出てきたらやだなー

戦略訴訟はすでに出まくりです。
117デフォルトの名無しさん:03/01/09 14:54
2ちゃんねるはボランティアの削除人が書き込みをチェックして、
好ましくない書き込みを一所懸命削除している、
ということになっているが、あれはウソ。

削除人には給料が支払われ、その給料の原資となっているのが、
まずいことを書き込まれた企業が削除要求とともに渡す裏金。
======2==C==H======================================================

         2ちゃんねるのお勧めな話題と
     ネットでの面白い出来事を配送したいと思ってます。。。

===============================読者数: 138720人 発行日:2003/1/9

年末年始ボケがそろそろ収まり始めた今日このごろのひろゆきです。

そんなわけで、年末に予告したIP記録ですが実験を開始しています。

「2ちゃんねる20030107」
こんな感じで各掲示板の最下部に日付が入ってるんですが、
20030107以降になってるところはログ記録実験中ですー。

んじゃ!

────────────────────────Age2ch─
■この書き込みは、Age2chを使って配信されています。
────────────────────────────
Keep your thread alive !
http://pc3.2ch.net/test/read.cgi/software/1041952901/l50
────────────────────────────
ここは過大評価されるインターネットですね
>>131
誰の?(^_^;)
もう全板IP取ってるの?
>>478
冬房は早く寝たほうが良いぞ
>>150
普通の掲示板の管理人は
削除を要求されたら消すよ

>他の掲示板にも大きな問題となる判決
ならない
これをいい訳にしようとするのはやめて欲しいね
>>634
そんなこといわれても。
売るって事もありうるしね。    
              
ちなみに38度までは解熱剤を使わないほうがいいそうで。
39度を越えたらちょっとやばいので、解熱剤を使ってでも
熱を下げたほうがいいです。40度に達すると生命の危険
です。
ひろゆき殺害してくる
テスト
まあ、これからは祭りも選んでやれと。
======2==C==H======================================================

         2ちゃんねるのお勧めな話題と
     ネットでの面白い出来事を配送したいと思ってます。。。

===============================読者数: 139038人 発行日:2003/1/10

なにやら、連日メルマガだしてるひろゆきです。

そんなわけで、ログ記録実験ですが、いちいちサーバ指定するのが面倒なので、
全部のサーバに入れてみました。

重くなって落ちたりしてもご愛嬌ってことで。。。

んじゃ!

────────────────────────Age2ch─
■この書き込みは、Age2chを使って配信されています。
────────────────────────────
Keep your thread alive !
http://pc3.2ch.net/test/read.cgi/software/1041952901/l50
────────────────────────────
そんな事したって、こぶ平が満足に箸も使えない事は日本国民の80%が知っていることで・・・
いや待てよ、ひろゆきは警察以外にもIP出す気なわけ?
( ´-`).。oO(馬鹿ってどう定義するんだ・・・w)
あげてみたり。
 IP記録告知以後、2chのどの板も、どのスレも、だいぶ静かになった
ような気がする。

 今まで如何に無責任な書き込みが多かったかを示しているような
気もするけど、閑散として活気もなくなったような気もする。
さっきは80番ポート云々のエラー出たけどかけるかな?
======2==C==H======================================================

         2ちゃんねるのお勧めな話題と
     ネットでの面白い出来事を配送したいと思ってます。。。

===============================読者数: 138720人 発行日:2003/1/9

年末年始ボケがそろそろ収まり始めた今日このごろのひろゆきです。

そんなわけで、年末に予告したIP記録ですが実験を開始しています。

「2ちゃんねる20030107」
こんな感じで各掲示板の最下部に日付が入ってるんですが、
20030107以降になってるところはログ記録実験中ですー。

んじゃ!


─────────────────────── 2ch-net─
メルマガ登録・解除 http://www.2ch.net/mag.html


http://www.2ch.net/2ch.html / [email protected]
───────────────────────────


あのさぁ、それをいうなら、利用者の自己責任云々以前に運営者の管理責任をちゃんと果たせよ。
被害者の立場からすりゃ、管理が悪すぎるから、というのが普通の感覚だろ。
それこそ、裁判所じゃないからわかんなーーーーい、なんて言い訳は通用しないんだからさ。

一度でも被害者側の視点から考えたことあんのかねぇ・・・・
チョト(略
処置とはどんな処置を?
ヤツをなぜアク禁にしないの?
【予告】小学生の登校を狙って・・・

1 名前:キラー ◆cbkujpH7is [] 投稿日:03/01/08 23:10 ID:gsrD4Baw
明日の朝、登校途中の小学生を狙って大量殺人を実行します。実際
には大量とは言っても、刺せるのは15人程度、即死や死亡は10人程
度になってしまうとは思うけど。
住んでるのが北陸なので、適当に車で目標となる場所を探します。
その前に、車で小学生に突っ込むことも計画してます。
目的?そんなものなんかないよ。
人はいつかは死ぬんだ。ちょっと早いかどうかの差だろ?
人の死を作り出せる人は神である。俺は神になるよ。
まぁ潰れる板と生き残る板があるってことだ
横浜地方裁判所第4民事部でも12/13掲示板訴訟判決。
そっか、俺の認識が甘かった。
ドリキャスをネットにつないでる人って全ブラウザの数%を占めていたのか。
146山崎渉:03/01/13 18:59
(^^)
そんなに世の中が嫌いか。
年収600万円に満たない屑でも愉快に暮らせる楽しい世の中じゃないか。
いちいち爆破するな。
148山崎渉:03/01/15 18:13
(^^)
149山崎渉:03/01/23 22:12
(^^)
ああ、そういえば「株屋のためのデータマイニング入門」みたいな本が最近出たな。
151デフォルトの名無しさん:03/02/17 01:12
こんなスレがあったのか。
高卒系プログラマーにはわからん話だろうな。
152山崎渉:03/04/17 16:08
(^^)
153山崎渉:03/04/20 03:17
   ∧_∧
  (  ^^ )< ぬるぽ(^^)
154山崎渉:03/04/20 03:49
   ∧_∧
  (  ^^ )< ぬるぽ(^^)
>>151
まず、>>4が読めないからね
156 ◆H45yAl5h02 :03/05/03 23:14
157山崎渉:03/05/28 13:14
     ∧_∧
ピュ.ー (  ^^ ) <これからも僕を応援して下さいね(^^)。
  =〔~∪ ̄ ̄〕
  = ◎――◎                      山崎渉
カルバクライバー情報量ってエントロピーみたいなもんなのかな。
159山崎 渉:03/07/15 15:20

 __∧_∧_
 |(  ^^ )| <寝るぽ(^^)
 |\⌒⌒⌒\
 \ |⌒⌒⌒~|         山崎渉
   ~ ̄ ̄ ̄ ̄
160山崎 渉:03/08/02 02:40
(^^)
161山崎 渉
    (⌒V⌒)
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。
  ⊂|    |つ
   (_)(_)                      山崎パン