ニューラルネットワーク

このエントリーをはてなブックマークに追加
937デフォルトの名無しさん:2010/05/15(土) 21:41:38
938デフォルトの名無しさん:2010/05/15(土) 22:56:29
できたよ
939デフォルトの名無しさん:2010/05/16(日) 04:53:57
>>935,937
おい、ネタで言ってるのか真性なのか判別しづらい、どっちだよ。
940デフォルトの名無しさん:2010/05/16(日) 07:09:51
俺は教師なしでできると思ってる
やり方は分からんけど・・・

もちろん真性
941デフォルトの名無しさん:2010/05/16(日) 12:49:24
無理です。
エネルギー最小化問題にしたみたところでTSPのようにいきなり解(六面揃い)が求まるだけで、経路は求まりません。
ルービックキューブが解けるのなら、どうしてチェスにニューロが使われないのか。
942デフォルトの名無しさん:2010/05/16(日) 13:58:26
出来ると言ってる方に証明責任がある
943デフォルトの名無しさん:2010/05/16(日) 14:55:23
ルービックキューブほど大きくなくて、ニルソンのA*でも使われてる
8パズル辺りなら実用的な時間で解けると思う
944デフォルトの名無しさん:2010/05/16(日) 17:47:48
>>941
君が知らないだけ
チェスに使われてるよ
945デフォルトの名無しさん:2010/05/16(日) 22:03:53
論文探しても見つからないんだけど
946デフォルトの名無しさん:2010/05/16(日) 22:39:40
情弱乙
947デフォルトの名無しさん:2010/05/17(月) 04:47:14
論文kwsk
948デフォルトの名無しさん:2010/05/17(月) 05:11:03
kphereもどきってなに?
949デフォルトの名無しさん:2010/05/17(月) 09:33:32
>>944
ほぉ、どういう使い方でしょうね。
連想・類似記憶で定石パターン検索とかかなぁ。
950デフォルトの名無しさん:2010/05/21(金) 08:33:33
で、経路探索にNNが使われている実例は無いの?
951デフォルトの名無しさん:2010/05/21(金) 09:43:24
8パズルなら状態数が少ないからって
教師なしでできるもんなの?
952デフォルトの名無しさん:2010/05/23(日) 15:21:56
NNがチェスに使われてるのって強化学習+NNでしょ
最適化問題とはちょっと違う
953デフォルトの名無しさん:2010/05/23(日) 17:14:44
強化学習の原理
NNだろうがなんだろうが基本は統計的アプローチだ
情報を収集する->情報を整理する->出力を考える
この3段階で行われる

例えば
入力Nはパターン0〜9
10個の配列があったとしてA[10]
入力Nが得られた時にA[N]をある規則f(N, t)で更新することで
A[N]の中身が時間と共に重要度が増すような関数を入れる
すると経験として蓄積されたA[N]は学習された結果になる

以下のメッセージは省略されました
954デフォルトの名無しさん:2010/05/23(日) 23:20:58
>>952
君が想像していたのと違っていようがNNである事に違いない
955デフォルトの名無しさん:2010/05/27(木) 17:58:00
最適化も統計もパターン認識なども情報幾何からみたら似たような問題
956デフォルトの名無しさん:2010/05/27(木) 19:22:47
まったく同じ問題
957デフォルトの名無しさん:2010/05/30(日) 13:17:02
NNの中間層ってどうやって決めればいいの?
958デフォルトの名無しさん:2010/05/30(日) 14:22:09
入力層の数を倍にした数に近い素数がいいって夢枕でばっちゃに言われた
959デフォルトの名無しさん:2010/05/30(日) 16:41:13
それを考えてみた
1と0の極入力2出力2でXORを解くには最低3個の中間層が必要
問題は入力が増えた場合だけど
必要な記憶容量は指数関数的に増大する
具体的な算出式までは分からないが、それを誰か研究してもいいんじゃないか?
出力1桁に求められる精度をa(0.1区切り)とか
つまり必要な中間層の数は(1.0 / a)^入力桁数+3だな
960デフォルトの名無しさん:2010/05/30(日) 16:46:41
(1.0 / a)^入力桁数+3*(1.0 / a)
こうか
961デフォルトの名無しさん:2010/05/30(日) 20:34:00
実際には排他的論理和は中間層の素子は2つで解けるわけだから
入力の倍に近い素数ってのはおまじないに過ぎないってことだ
962デフォルトの名無しさん:2010/05/30(日) 22:13:00
中間層のニューロンの数は?
963デフォルトの名無しさん:2010/05/31(月) 21:42:06
入力が実数値で出力も実数値のNNって作れるの?
964デフォルトの名無しさん:2010/05/31(月) 23:53:24
うん
965デフォルトの名無しさん:2010/05/31(月) 23:58:24
実例は何がある?
966デフォルトの名無しさん:2010/06/04(金) 01:36:00
だれかリカレントとかスピングラスについて語ってくれ
967デフォルトの名無しさん:2010/06/04(金) 10:30:14
リカレントは中間層に一回前の反応をリピートさせることで
時系列の関係を数値化しようとするもの

スピングラスはよく知らないが
たぶん、実際の脳細胞は同じ入力があってもランダムに発火したりしなかったりしてる
ライダムは無価値で今まで無視されてたけど
そのランダム性が本当は重要で結果に影響を与えてるのではという統計学仮説がある
968デフォルトの名無しさん:2010/06/04(金) 20:54:06
何十年も前から研究されてる割には糞の役にも立たないイメージしかないんだが
最適化問題意外に利用法あるのか?
969デフォルトの名無しさん:2010/06/04(金) 20:57:30
みらいの攻殻機動隊には必要な技術です(テキトー
970デフォルトの名無しさん:2010/06/04(金) 21:02:35
光学迷彩的な意味、AI的な意味?
このモデルじゃどっちも無理だろ。せいぜいアイボ止まり
971デフォルトの名無しさん:2010/06/04(金) 21:12:09
脳をシミュレートするのは今のコンピュータじゃ無理だとか言わずに
一言発するのに一週間掛かってもいいから
まともに機能する人工知能の基礎モデルくらい作って欲しいな
後はコンピューターの性能向上を待つだけとかになれば
特化したCPUを開発するとかいう道も開けるだろうに
972デフォルトの名無しさん:2010/06/04(金) 21:17:06
コンピュータの性能が無理なんじゃなくて、
リカレントモデルで、どーこーってのが無理
973デフォルトの名無しさん:2010/06/06(日) 16:15:48
0,1の入力の素子が36個に対して
出力が-1~1の実数の場合、中間層の素子の数はいくつにすればいい?
974デフォルトの名無しさん:2010/06/06(日) 19:50:53
たくさんあれば近似能力があがる一方で、計算時間が伸びる
とか適当こいてみよう。ciniiなりなんあり漁れよ
975デフォルトの名無しさん:2010/06/06(日) 21:44:43
>>973
1の36乗+3
976デフォルトの名無しさん:2010/06/06(日) 21:45:49
3じゃない
2の36乗+3にしとこう
977デフォルトの名無しさん:2010/06/06(日) 23:23:50
1個以上
978デフォルトの名無しさん:2010/06/07(月) 00:00:10
2^36は多すぎ
979デフォルトの名無しさん:2010/06/07(月) 02:38:36
>>975-976
どれがいいの?
980デフォルトの名無しさん:2010/06/07(月) 02:39:21
どれもだめ
981デフォルトの名無しさん:2010/06/07(月) 08:18:54
記憶させるものの規模は書いてあってもその量が書かれていないんだから決められない
982デフォルトの名無しさん:2010/06/08(火) 00:15:22
>>971
脳をシミュレーションするのと人工知能は関係ないと思うんだが
983973:2010/06/08(火) 04:17:39
>>981
記憶させる値は-1.0から1.0まで0.1刻みで20個記憶させます
984デフォルトの名無しさん:2010/06/08(火) 04:24:21
21個じゃなくて?
985デフォルトの名無しさん:2010/06/08(火) 04:25:26
21でした
986デフォルトの名無しさん
で、いくつがいいの?