できたよ
>>935,937
おい、ネタで言ってるのか真性なのか判別しづらい、どっちだよ。
俺は教師なしでできると思ってる
やり方は分からんけど・・・
もちろん真性
無理です。
エネルギー最小化問題にしたみたところでTSPのようにいきなり解(六面揃い)が求まるだけで、経路は求まりません。
ルービックキューブが解けるのなら、どうしてチェスにニューロが使われないのか。
出来ると言ってる方に証明責任がある
ルービックキューブほど大きくなくて、ニルソンのA*でも使われてる
8パズル辺りなら実用的な時間で解けると思う
>>941 君が知らないだけ
チェスに使われてるよ
論文探しても見つからないんだけど
情弱乙
論文kwsk
kphereもどきってなに?
>>944 ほぉ、どういう使い方でしょうね。
連想・類似記憶で定石パターン検索とかかなぁ。
で、経路探索にNNが使われている実例は無いの?
8パズルなら状態数が少ないからって
教師なしでできるもんなの?
NNがチェスに使われてるのって強化学習+NNでしょ
最適化問題とはちょっと違う
強化学習の原理
NNだろうがなんだろうが基本は統計的アプローチだ
情報を収集する->情報を整理する->出力を考える
この3段階で行われる
例えば
入力Nはパターン0〜9
10個の配列があったとしてA[10]
入力Nが得られた時にA[N]をある規則f(N, t)で更新することで
A[N]の中身が時間と共に重要度が増すような関数を入れる
すると経験として蓄積されたA[N]は学習された結果になる
以下のメッセージは省略されました
>>952 君が想像していたのと違っていようがNNである事に違いない
最適化も統計もパターン認識なども情報幾何からみたら似たような問題
まったく同じ問題
NNの中間層ってどうやって決めればいいの?
入力層の数を倍にした数に近い素数がいいって夢枕でばっちゃに言われた
それを考えてみた
1と0の極入力2出力2でXORを解くには最低3個の中間層が必要
問題は入力が増えた場合だけど
必要な記憶容量は指数関数的に増大する
具体的な算出式までは分からないが、それを誰か研究してもいいんじゃないか?
出力1桁に求められる精度をa(0.1区切り)とか
つまり必要な中間層の数は(1.0 / a)^入力桁数+3だな
(1.0 / a)^入力桁数+3*(1.0 / a)
こうか
実際には排他的論理和は中間層の素子は2つで解けるわけだから
入力の倍に近い素数ってのはおまじないに過ぎないってことだ
中間層のニューロンの数は?
入力が実数値で出力も実数値のNNって作れるの?
うん
実例は何がある?
だれかリカレントとかスピングラスについて語ってくれ
リカレントは中間層に一回前の反応をリピートさせることで
時系列の関係を数値化しようとするもの
スピングラスはよく知らないが
たぶん、実際の脳細胞は同じ入力があってもランダムに発火したりしなかったりしてる
ライダムは無価値で今まで無視されてたけど
そのランダム性が本当は重要で結果に影響を与えてるのではという統計学仮説がある
何十年も前から研究されてる割には糞の役にも立たないイメージしかないんだが
最適化問題意外に利用法あるのか?
みらいの攻殻機動隊には必要な技術です(テキトー
光学迷彩的な意味、AI的な意味?
このモデルじゃどっちも無理だろ。せいぜいアイボ止まり
脳をシミュレートするのは今のコンピュータじゃ無理だとか言わずに
一言発するのに一週間掛かってもいいから
まともに機能する人工知能の基礎モデルくらい作って欲しいな
後はコンピューターの性能向上を待つだけとかになれば
特化したCPUを開発するとかいう道も開けるだろうに
コンピュータの性能が無理なんじゃなくて、
リカレントモデルで、どーこーってのが無理
0,1の入力の素子が36個に対して
出力が-1~1の実数の場合、中間層の素子の数はいくつにすればいい?
たくさんあれば近似能力があがる一方で、計算時間が伸びる
とか適当こいてみよう。ciniiなりなんあり漁れよ
3じゃない
2の36乗+3にしとこう
1個以上
2^36は多すぎ
どれもだめ
記憶させるものの規模は書いてあってもその量が書かれていないんだから決められない
>>971 脳をシミュレーションするのと人工知能は関係ないと思うんだが
983 :
973:2010/06/08(火) 04:17:39
>>981 記憶させる値は-1.0から1.0まで0.1刻みで20個記憶させます
21個じゃなくて?
21でした
で、いくつがいいの?