1 :
Nanashi_et_al.:
無かったので立ててみました。
2 :
Nanashi_et_al.:05/01/09 16:09:01
人生につかれています
3 :
Nanashi_et_al.:05/01/09 16:11:10
シャノン賞
この賞は情報理論の創始者であるシャノンの業績を称えて
IEEEの情報理論ソサイエティが1973年に創設したもので
同ソサイエティ最高の賞であります。
第1回目の受賞者はシャノン先生です。
各年の受賞者は高々1名です。
4 :
Nanashi_et_al.:05/01/09 16:11:17
食え
5 :
Nanashi_et_al.:05/01/09 16:11:37
>第1回目の受賞者はシャノン先生です。
知らなかった。
6 :
Nanashi_et_al.:05/01/09 16:12:55
なんか語ろーぜってことでネタ振り.
LDPC符号ってどうなんやろうね.最近研究する人むっちゃ増えてるが…
俺にはいまいちすごい符号とは思えん.
8 :
Nanashi_et_al.:05/01/10 19:19:08
Turing賞ってどうなんだろうね?
Shannon賞 > Turing賞 ?
10 :
Nanashi_et_al.:05/01/11 17:56:56
応用数学科で情報理論やってる人って将来何になるの??
11 :
Nanashi_et_al.:05/01/11 20:04:54
ユニバーサル符号とかターボ符号とか?
>11
そうだと思うんだが
13 :
Nanashi_et_al.:05/01/19 09:21:28
産総研てどうよ?
14 :
Nanashi_et_al.:05/01/19 21:43:34
津田さん
15 :
Nanashi_et_al.:05/01/21 13:23:12
誰ですか???
津田さん有名じゃん
17 :
Nanashi_et_al.:05/02/16 21:24:03
マックスプランク研究所に移ってた
18 :
Nanashi_et_al.:05/02/16 21:52:23
日本人でもらった人いる?> Shannon賞
19 :
Nanashi_et_al.:05/02/16 23:37:45
ユニバーサル符号ってどんなの?
20 :
Nanashi_et_al.:2005/04/02(土) 21:27:35
ハミングの必要条件の方は分かるのだが、
十分条件が分からん。
2t-1ってどこから出てくるの?
21 :
Nanashi_et_al.:2005/05/31(火) 13:31:11
誰か情報量の定義の導出の仕方教えてください
(1)生起確率pが大きければ大きいほど情報量は小さくなる、つまり情報量I(p)はpの単調減少関数である
(2)I(p1・p2)=I(p1)+I(p2)
以上から情報量I(p)=-klog(p)
(2)からklog(p)が導けません・・・・
23 :
Nanashi_et_al.:2005/06/03(金) 18:18:28
それは導出って言わない希ガス
24 :
Nanashi_et_al.:2005/06/03(金) 21:26:06
積分すればいいんじゃない?
25 :
Nanashi_et_al.:2005/06/03(金) 22:47:56
26 :
Nanashi_et_al.:2005/06/04(土) 06:13:20
宿題やってろ
>>21 【entropy】無秩序さや乱雑さの度合い。
1. 熱力学的には、可逆な過程で系に与えられた熱量を系の絶対温度で除したものが過程の前後のエントロピーの差と定義される。
2. 統計力学的には、系が取りうる状態の数の自然対数?にボルツマン定数をかけた量。
3. 情報科学的には情報量?と同義。単位はビットになる。
たとえば情報量の計算では、確率 P で起こる事象に関する情報量は -log_2 Pビットと計算される。
確率 1/8 で起こることなら 3bit、など。稀な事象が起こったという情報ほど情報としての重要性が大きいと言うこと。
たとえば「今日は中央線が人身事故のため遅れています」という情報はよくあることなので情報量が低い。
しかし「阪神が日本シリーズで優勝した」という情報は稀なことなので情報量が多い。
なぜ -Log Pなのかというと、例えば「中央線が止まってて、阪神が日本シリーズで優勝した」という情報の情報量は
それぞれの情報量の和になるが、そういう事が起こる確率はこの場合二つの事象がほぼ独立と考えられるので、
中央線が止まる確率 Pa と阪神優勝の確率 Pb の積 Pa・Pb となる。
log(Pa・Pb)=log Pa + log Pb となるので、Log ならばちゃんと二つの情報量の和になることが分かる。
28 :
21:2005/06/04(土) 20:50:09
自己解決しました
微分の定義を使って導出できました
29 :
Nanashi_et_al.:2005/06/05(日) 13:55:13
情報理論やるんだったら今井の本なんかじゃなくて
Thomas M Coverの「Elements of Information Theory」
読んで, Fellerで確率論勉強しましょう.
符号ならGallagerやMcelliceやBlahutかな?
30 :
Nanashi_et_al.:2005/06/18(土) 19:33:11
情報エントロピーに関して,とても分かりやすくてしっかり計算方法が書いてあるおすすめの本ってないですか?
31 :
Nanashi_et_al.:2005/07/04(月) 21:21:58
Richard Blahutの"Principle and Practice of Information Theory"
32 :
Nanashi_et_al.:2005/07/04(月) 22:59:22
今井秀樹の情報理論 いいとおもいます。
工学部ならまずこれで勉強して言いと思います。
33 :
Nanashi_et_al.:2005/11/26(土) 14:35:06
定期age
34 :
情報理論:2005/12/12(月) 02:14:10
なんて過疎ってんだ!><俺、情報理論の質問したくてきたのに・・・。
今井秀樹の情報理論でさ、87pの演習問題4.6(第4章)の(b)で「1
」の確率が0.5916とか解答で書いてあるんだけどどう考えても0.3333・・・・としか,
思えないんだ。誰か俺を救ってくれ、1,01,001,0001,00000の状態図でも解けるって書いてあるけど、
これもかけないってか、もっと簡単な方法で、P(1)=ω0*Ps0(1)+ω1*Ps1(1)でいいんじゃないのか?
でもこれじゃ計算が合わないんだ、俺を救ってくれ><教えてくれたらすかさずお礼を言いますから><
・・・シーン・・・
36 :
Nanashi_et_al.:2005/12/17(土) 12:32:21
問題を書き込みます.
誰か答えて下さい.
問1.n個のメッセージが同格率で出現する情報源を符号化する場合,瞬時符号の平均符号長の限界(最短長)はどうのようになるのか?
また,その理由は?
問2,83個のメッセージを3元の等長の文字列で表す場合,1メッセージを表す長さは?
問3,ハフマン符号の構成には”木”(ハフマン木という)の性質を利用しているが,符号化に木を利用する理由はなにか?
問4,情報源符号化,通信路符号化の本質的な違いはなにか答えなさい.
問5,符号長がN(=2m)のハミング符号のパリティ検査行列を書きなさい.
問6,線形符号においては,最小ハミング距離と最小ハミング重みが等しいことを証明しなさい.
すいません..お願いします.
37 :
Nanashi_et_al.:2006/03/02(木) 08:54:49
フルーエンシ情報理論ってどうよ?
38 :
Nanashi_et_al.:2006/03/02(木) 15:19:40
39 :
Nanashi_et_al.:2006/03/02(木) 18:00:32
>>18 果てしなくおそレスだが、嵩先生がシャノン賞を貰っておるぞ。
40 :
Nanashi_et_al.:2006/03/19(日) 07:10:41
レビューヨロ
>>40の本と古い奴(「情報理論」)では具体的にどんな違いがあるのだろう。
43 :
Nanashi_et_al.:2006/03/20(月) 23:53:37
今井さんって退官したらしいね?
45 :
Nanashi_et_al.:2006/04/24(月) 19:32:58
Reviewよろw
そんなことより
情報エントロピと熱エントロピとの変換式をはやく教えろ。
47 :
Nanashi_et_al.:2006/05/01(月) 00:06:31
ある制約条件の下で情報エントロピーを最大化するような確率分布がボルツマン分布や正規分布になるというのは目からウロコが落ちますた
情報理論ってまだやってる人いるの?
>>44 退官して産総研情報セキュリティ研究センターのセンター長専任になったの?
>>48 ○○情報量とかいうのを次々と考え出して延々と議論してる香具師は世界中いたる処に生息していそうであります。
51 :
Nanashi_et_al.:2006/05/15(月) 21:32:55
ちょっと質問なんですがサイコロ振って
123456123456123456123456123456・・・
という規則性にしたがって目が出たとした場合エントロピーはいくつになりますか?
p(1)=1/6, p(2)=1/6, ・・・, p(6)=1/6
だからエントロピーは1?
全部確率1で指定できるんなら0じゃないの?
53 :
Nanashi_et_al.:2006/05/15(月) 22:18:02
列が規則的だから確率1ってことですか?
規則的だと思わないでさいころふってて偶然上のような列が出たとしたらどうですか?
6面サイコロなら全部等確率の1/6ででるからエントロピーの式にあてはめると1だと思うんですが。
どこが間違ってるでしょう。
54 :
Nanashi_et_al.:2006/05/15(月) 22:21:26
55 :
Nanashi_et_al.:2006/07/29(土) 22:22:14
情報理論、通信理論、符号理論分野の研究って難しいですか?
理論を研究するっていうのは難しいように感じるのですが。
学生が1年間とか2年間で論文を出せるのでしょうか?
フルーエンシ情報理論
58 :
Nanashi_et_al.:2006/08/04(金) 11:21:43
情報系と電気通信系ってどっちが就職いいですか?
電気通信系じゃないの?俺は情報系だけど。
60 :
Nanashi_et_al.:2006/08/07(月) 00:32:58
情報系ってダメなんですか。
就職ってどういったところがあるんでしょうか。
研究職ってありますか?
研究職以外はどういったところにつけますか?
現在高校生で迷ってます。
61 :
Nanashi_et_al.:2006/10/23(月) 04:53:07
SE
62 :
崇拝者:2006/10/23(月) 19:52:00
60さんへ
沢山あります。オラクル、マイクロソフト、防衛庁、NTT、
MIT世界へはばたけます。
63 :
Nanashi_et_al.:2006/10/24(火) 12:44:03
可哀想だからいじめるなよw
64 :
Nanashi_et_al.:2006/11/30(木) 15:18:01