研究対象としては、どうなんでしょうか? おもしろいのか、将来性はあるのか… 教えて下さいまし。
2 :
名無しさん@1周年 :02/03/10 23:20
今だ2げtずざー シグモイドage ニューロン興奮ハァハァ
昔は1000番目のキリ番を目指すなどあったが、今では2を取ることに彼らは 必死だ。その理由には次のようなことが考えられる。 まず「1000まで待てない」ということが挙げられるだろう。 辛抱・我慢といった観念は既になく、思ったことをそのまま行動に繋げる計画性 のなさがある。これは最近の「すぐキレる若者」の特徴に類似している。 次に、例えば1000だった場合、1000レス目が最後の書き込みとあり、1001番目は 反映されない。これはまさに「成功か失敗か」の問題だったのだ。 しかし「2」は違う。2をとれなくても3や4、もしくは5〜までの書き込みに 、自らのレスが反映される。成功しなくても自分の行為が反映されるのだ。 そこにはもはや「成功と失敗」といった、片方だけの存在はない。 1000では失敗すれば誰も自分の書き込みを見てくれず、表示される警告文を一人 見るだけだったが、2を取れなくても、自分のしたことが反映されるため 「2じゃなかったけど、まあいいか」といった気持ちに繋がる。これは現在増え ている「フリーター」の心理に他ならない。 そして多くのものは、「なぜ2番目のレスを取ることの速さを競うのか」を考え たことはないだろう。他人がやっているから自分もやる。または、他人の2を取る のを邪魔してやりたい、といったことがあると考えれる。これはまさに「明確な 自己意識がなく他人に振り回される」「人の足を引っ張ることに快感を覚える」 という、現代若者の特徴を描き出しているのだ。 問題の真相は後回しにし、内容のない書き込みを続ける。さながらワイドショー 並みの愚かさが、そこにはあるのだ。
6 :
名無しさん@1周年 :02/05/05 22:11
興奮
7 :
名無しさん@1周年 :02/05/09 06:35
発火
8 :
名無しさん@1周年 :02/05/09 10:55
エキサイティングしてます
9 :
名無しさん@1周年 :02/05/09 14:14
抑制
10 :
名無しさん@1周年 :02/05/09 22:30
不王
11 :
名無しさん@1周年 :02/05/10 00:42
もうだめでしょう。 つうか、2層ニューラルネットワークでなーんもできないことが証明されて以来、廃れる一方だな。 まぁ、2層でなんかできたら、そりゃおどろきだが。
12 :
名無しさん@1周年 :02/05/10 16:26
無双ニューラルネットワークで攻めろ
13 :
名無しさん@1周年 :02/05/18 18:15
っていうかNN使うくらいなら 逐一探索したほうが速い。
14 :
名無しさん@1周年 :02/05/19 13:26
汎化学習、連想なんかはNNが良いかと。
15 :
名無しさん@1周年 :02/05/19 18:14
二層だけじゃきつすぎる。 でもパターン認識、連想とかはいいんじゃん? 将来性は微妙。どの程度の将来かによる。
NNは信頼性が無いから嫌い。
17 :
名無しさん@1周年 :02/05/23 04:48
で、シミュレートして、どう活用するの?
19 :
名無しさん@1周年 :02/06/17 12:48
将来性があるといわれてはや15年。もはや将来性も何も。。。
でも生物の脳が神経回路網なのも事実。
21 :
名無しさん@1周年 :02/07/20 23:34
ニューラルネットのツールでお勧めありますか? 今はtrajanって会社のデモ版使ってんですが、クリップボードが使えなくて困ってます。 ネットワークのウエイトを検討したいのです。お願いします。
22 :
名無しさん@1周年 :02/07/21 03:24
>>13 そんなことはない。
parallerismって知ってる?
23 :
名無しさん@1周年 :02/07/27 04:56
ニューラルネットワーク入門のサイト/本で何かいいのはないでしょうか。 googleに訊いてみてもなんか引掛らないんですよね。下火なんでしょうか。
25 :
名無しさん@1周年 :02/07/27 05:43
>> 23 圧倒的に洋書をお勧め
27 :
Nanashi_et_al. :02/08/01 19:31
カオスニューラルネットをmatlabで、 シミュレーションした方、いらっしゃったら やり方を教えてください。
28 :
名無しさん@1周年 :02/08/02 11:01
matlabは中で何をやっているかわからんからな あまり使わない
第一次ブーム 1943 Mclloch and Pittsのモデル(Mclloch and Pitts) 1949 シナプス結合(神経細胞間の結合)の変化規則の提案.(Hebb) 1958 Perceptron (Rosenblatt) 1960 Widrow-Hoffのδルール(Widrow and Hoff) 1961 誤り訂正型の方法(Rosenblatt) 1962 Widrow-Hoffのδルール(Widrow) 1967 「もっと強力な収束定理」(Amari) 1967 確率的降下法による二乗誤差最小化(Amari) 1969 「Perceptron限界」説(Minsky and Papert) 第二次ブーム 1982 Hopfieldのネットワーク(Hopfield) 1983 Boltzmann Machine(Farlman et al.) 1984 Gibbs SamplerS.(Geman and D.Geman) 1986 誤差逆伝播学習アルゴリズム(Rumelhart) 1988 連続関数のシミュレータとしての完全性(船橋) 1988 神経統計力学の方法を使って連想記憶の容量について議論(同期的に状態変化をするものについて)(Amari and Maginu)
31 :
名無しさん@1周年 :02/09/30 03:04
>> 30 古いなあ。最近のノンパラとかセミパラの所まで書いてよ。
32 :
2チャンネルで超有名 :02/09/30 10:08
33 :
名無しさん@1周年 :02/09/30 13:54
>31 30的にはブームになってないということなのでは。
34 :
2チャンネルで超有名 :02/09/30 15:05
35 :
名無しさん@1周年 :02/12/21 21:43
日立のニューロコンってあったな。
36 :
名無しさん@1周年 :02/12/22 16:40
なんだそれ
37 :
名無しさん@1周年 :02/12/22 17:04
38 :
名無しさん@1周年 :02/12/22 17:24
「ニューラルネットワーク」 名前が良かったな 誤差最小法とか確率最適化って名前じゃここまで流行したかな
39 :
名無しさん@1周年 :02/12/22 19:16
>>35 今はSH系CPUの開発環境とかで有名な会社ですね。
あの時代、他にも色々ニューロ+ファジー応用製品が出てて、
手ブレを自動補正するビデオカメラとか有名だったっけ。
(^^)
(^^)
43 :
名無しさん@3周年 :03/03/21 03:15
まじで、ニューロってもうだめなの?
44 :
名無しさん@3周年 :03/03/21 04:31
45 :
名無しさん@3周年 :03/03/21 04:54
46 :
名無しさん@3周年 :03/03/22 15:07
1967 確率的降下法による二乗誤差最小化(Amari) ってどんな本に出てるの?
47 :
名無しさん@3周年 :03/03/23 03:09
ニューロは工学的応用はチト無理なのでは? でも、実際の脳の神経回路を理解するツールとして重要だと思うYO!
48 :
名無しさん@3周年 :03/03/23 05:43
49 :
名無しさん@3周年 :03/03/26 00:31
押菌>unko! 達悪>unko! 押菌>FAQ U 達悪>U 大! 押菌>∫Ηinё! 達悪>κΙ┗┗ U! 押菌>μηκο! 達悪>μηκο!
え〜まっさか〜〜〜〜 工学的応用の方が実用的でしょ。 それがなかったら使い物にならない
>50 何をするにしたって、マシンパワーに物を言わせた 情報処理の方が楽だとおもいますけど。
53 :
名無しさん@3周年 :03/03/31 23:47
ニューラルネットの研究なら報告にならないようにすれば 十分に魅力的な分野だと思うじょん。 現在の問題点は、 初期値の問題−ランダムなんてのはありえない。頭悪すぎる。 結合方式 −DNAで制御されたニューロンの配列は非常に合理的に出来ていると考えられる。 それにくれべ、現在の三層構造とかには数学的裏付けが無い。非常にいい加減。 学習時間 −学習に対して必要なサンプル数が多すぎる。 最急降下法は、人間にはありえないほど効率の悪い学習方法。 ニューラルネットは離散値と連続値の互換、非線形境界線の識別問題の解決 これが期待できる。 この問題点をとけば、あなたは大金持ち。頑張ってください。 でも結果の出にくい研究だから、学位とかならさけた方がいいのかなぁ〜
多様化するPCビジネスの中で、確実に急成長している堅実ビジネスです。
私自身、様々なネットビジネスを試してきましたが、
今回初めて自信を持ってご紹介できます。
資金は後にも先にもたったの1000円のみです。
参考までに他では、1万円〜2万円が相場です。
ばらつきはありますが、平均日商8000円位になっています。
現在、土日を除く毎日が給料日です。掲示板に
書き込むだけで、口座に毎日入金されるようになります。
同時に202+αの裏情報も入手できます。
興味のある方、暇な方は
[email protected] に
件名を情報希望として送信してください。
送っていただいても振込先や説明以外のメールは送信しませんので
安心してください。(1通しか送りませんし催促もしません)
55 :
名無しさん@3周年 :03/04/01 00:06
>>47 この前、カオス理論の本を読んだ。某所で行われたビルの空調システム
の熱負荷予測のコンテストで、ニューラルネットワークを用いたシステムが、
全17チームの中で1位だったそうだ。
56 :
名無しさん@3周年 :03/04/06 04:20
57 :
名無しさん@3周年 :03/04/06 19:03
そういやドイツかどこかで、ニューラルネットワークでチェスをつくろうとして、 その接続重みをインターネットを利用した分散コンピューティングでもとめよう というのがあったな。 ネットにつながっているパソコンは9割が待機状態で、それをりようするための 一般市民のボランティアをつのったそうだ。
∩
∧_∧ | | / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
( ´Д`)// < 先生!こんなのを発見シマスタ!
/ / |
/ /| / \
http://saitama.gasuki.com/koumuin/ __| | .| | \
\  ̄ ̄ ̄ ̄ ̄ ̄ ̄\ \_____________
||\ \
||\|| ̄ ̄ ̄ ̄ ̄ ̄ ̄|| ̄
|| || ̄ ̄ ̄ ̄ ̄ ̄ ̄||
.|| ||
______
/_ |
/. \ ̄ ̄ ̄ ̄|
/ / ― ― |
| / - - |
||| (5 > |
| | | ┏━┓| / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
| | | | ┃─┃| < こんなサイトを見つけた
|| | | | \ ┃ ┃/ \ 正直、スマンカッタ
| || | |  ̄ \_________
http://saitama.gasuki.com/hiroyuki/
63 :
名無しさん@3周年 :03/04/13 00:45
ニューラルネット使うなら MATLAB と Mathematica どっち?
(^^)
65 :
名無しさん@3周年 :03/04/18 04:43
自分でプログラム書くってのはどうカイ?
66 :
名無しさん@3周年 :03/04/18 05:47
67 :
超話題今後雑誌記載に掲載かも?今がチャンス :03/04/18 06:02
∧_∧ ( ^^ )< ぬるぽ(^^)
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
∧_∧ ピュ.ー ( ^^ ) <これからも僕を応援して下さいね(^^)。 =〔~∪ ̄ ̄〕 = ◎――◎ 山崎渉
__∧_∧_ |( ^^ )| <寝るぽ(^^) |\⌒⌒⌒\ \ |⌒⌒⌒~| 山崎渉 ~ ̄ ̄ ̄ ̄
∧_∧ ( ^^ )< ぬるぽ(^^)
∧_∧ ∧_∧ ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。 =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕 = ◎――――――◎ 山崎渉&ぼるじょあ
(⌒V⌒) │ ^ ^ │<これからも僕を応援して下さいね(^^)。 ⊂| |つ (_)(_) 山崎パン
77 :
名無しさん@3周年 :03/11/24 15:47
サポートベクタマシンに関して色々知りたいことがあるんだけど いい文献教えてください。 特に ・サポートベクタの選び方 ・マージンの固さ(ハード/ソフト)による影響
78 :
名無しさん@3周年 :03/11/24 16:33
理論的に最適な値を見つけるための式やアルゴリズムが分からないとき、 ニューラルネットや遺伝的アルゴリズム(GA)を使って、あたかも命題が 解決したようにみせかけます・・・
>>77 サポートベクターマシンって、「これだ!」という参考書がないような気がする。
それこそニューラルネットワークなんて(質はともかく)多種多様な参考書が出てるのにねえ。
まあ、これからだとは思うけど。
>>78 は普通だと思うけど…。
80 :
名無しさん@3周年 :03/11/24 20:11
>>77 SVMの利用目的が分からないのですが・・。
NLP(自然言語処理)の研究途上で読んだ本の一覧を紹介します。
An Introduction to Support Vector Machine and other kernel-based learning method. CUP
Advances in lerge mergin classifiers. MIT press.
Lerning with kernels. MIT press.
Lerning kernel classfires. MIT press.
この辺りから、孫引きで調べて見てはいかが?
目的はデータマイニングです(多分)
>>80 ありがとうございます
読んでみます。
逆誤差伝播法により,多入力多出力の系を3層フィードフォワードネットワークに学習させたいと思います. この時,多入力多出力のものが1つの場合と,多入力1出力のものが複数の場合を比べて, 中間層素子数,学習に要する時間など含めて綜合的に判断すると,どちらが有利なのでしょうか?
83 :
名無しさん@3周年 :04/03/02 19:35
>>82 ageろよ。こんな板でsageてたら返事はないぞ。
>>82 多出力と1出力 自分にとって必要な数の出力であって
どっちが有利とはいえないのでは?
隠れそうユニット、学習時間の最適数はデータのよって変わるので
じっさいにやってみないとわかりません
教師データと相談してください(´・ω・`)
86 :
名無しさん@3周年 :04/03/03 20:27
ニューラルネットワークの研究ができる 企業ってあるんですか?
87 :
名無しさん@3周年 :04/03/03 21:06
実務上で、ロジスティック回帰をよく使うよ。 一応ニューラルネットワークだろ?
89 :
名無しさん@3周年 :04/03/11 18:34
たかがニューラルネットワーク・されどニューラルネットワーク・だけど やっぱりたかがニューラルネットワーク。
90 :
名無しさん@3周年 :04/03/11 18:39
数学的に証明されてないとかうだうだ言ってるけど、それは日本で出版されて いる本があまりにもちゃち過ぎるから。デカイ書店のそういうコーナー行った とこで、あるのは薄っぺらな本にちまちま程度に書かれてるだけ。 所詮ニューラルネットワークなんてのは将来的にデカブツになるにしても 現段階ではとてもそうとは言えない。そういう基礎的なのはどうしても 欧米諸国になる。やっぱり一番有名なのはSimonHaykin。ただ、彼の本 自体はそれ程いいものでもない。おおまかな概要とかを捉えるにはいいけど。 amazon.co.jpぢゃなくてamazon.comでneural network入れれば? いっっっくらでも良さそうな本があるだろうに。 基礎的研究で欧米に勝てるのはごく一部の分野だけ。
92 :
名無しさん@0周年 :04/03/12 19:31
とりあえず、スターウォーズのR2-D2、アンドロイド、ドラえもん 作りたいのならニューラルネットワークやったらいい。それ以外は 単に時間の無駄。大学教授にでもなって研究をしていきたいのなら もちろん話は別だけど、企業に入っても研究を続けて行きたいと 考えているのなら大間違い。この分野、分野自体が本当にHOTに ならない限りおまんま食ってけないでしょ。おまんまくいたいの ならなんか他のもっとマシな分野あたりな。 欧米からはくっさる程論文が出てるけど、どうでもいいようなの ばかり。知能系としての分野ならいいだろうけど、他のはどれも 企業が「これはビジネスにつながる」と思えるものがない。 現に今流行りの生体認証(バイオメトリクス)、どう?手法が NNをベースにってある?不思議なぐらい見つからないと思うけど。 ニューラルネットワークのパターン認識技術、虹彩や指紋にいくら でも使えるような気がしないでもないんだけどさ。
>>92 目から鱗です。
声帯認識がNNを用いてるソースは無かったですが、
それしかないって感じです。
94 :
名無しさん@0周年 :04/03/13 07:40
95 :
名無しさん@0周年 :04/03/13 07:48
よくあるパターンとしては 欧米での基礎研究が出来上がり始める →欧米での応用研究が出来上がり始める →欧米でその研究を利用した製品が出来上がる →日本がそれに改良を加えて結局Made in Japanブランドの出来上がり。 ニューラルネットワークは応用研究はいくらでもされてる。 問題はそこからの先のステップにはなかなか進めない点。 ニューラルネットワークという分野が出来て以来、その制約やらの ために限界を感じて研究者の士気が弱まっては、天才が新しいのを 提言して、「おぉ、それええやん!」みたいな感じでまた研究者が わーーー言うてこぼれた菓子に集まるアリのごとく集まる。んで また制約。それの繰り返し。結局次のステップに行けてない。 最近でHOTなのはやはりSVMことサポートベクトルマシンでは。 他にも制御分野でニューロコントロール、ファジィやエキスパート システムとのタイアップ、他にも色々ある。けどいつも机上の 空論ばかり。
96 :
名無しさん@3周年 :04/03/14 04:31
3層パーセプトロンの中間素子数を無限大にすれば 任意のL2関数を十分な精度で近似出来るそうだ。 実用的な範囲でもウエーブレットよりいい精度で近似出来るらしい。 俺は専門じゃないんで全て聞いた話だけどな。
97 :
名無しさん@0周年 :04/03/14 05:51
ニューロコントロール、ニューラルファジィ等、既存の分野との融合が目立つ 昨今だが、その中でもFFTより強力なウェーブレットとの融合、すなわち ウェーブレットネットワークもまた今HOT。これは強い。 ビジネスに結びつくかでは、ニューラルネットワーク、ロボット等の非常に 非線型な場合な動きを捉える場面では実を結んでるものもあるみたいだ。 ロボットがどんどん出て来てる分、リアルタイムでの対応にはこの脳型回路 は大きな強みを出すかもしれない。
98 :
名無しさん@0周年 :04/03/14 05:56
カルマンフィルタをNNの訓練法とした手法が出てきているけど、どう? 非線型のを訓練しようとした時に、カルマンフィルタの中の逆行列を 取る部分で行列がsingularになってシミュレーションで困ることがある。 どなたかご存知?
99 :
名無しさん@0周年 :04/03/14 05:57
NNの応用分野としてVLSIの回路設計に使う手法が紹介されてるけど、これって 企業は実際に使ってるんかな。また論文だけで実際には全然なんてことじゃ?
100 :
名無しさん@3周年 :04/03/14 19:47
101 :
名無しさん@3周年 :04/03/17 23:48
日本でニューラルネットやカオスニューラルネットを研究している 教授の中で、この人が良い(←専門的・世界でも論文書いてる)って誰でしょう? 自分の大学以外に大学院に進むとしたら、と今情報収集中です。 経済状況から、関東・東海地方で教えてください。
102 :
名無しさん@0周年 :04/03/20 05:50
理想はいいけど、現実は?机上の空論ばかりでは? セオリーはもうたくさん。
NTTはwebsomの研究してるみたいだよ NC研で発表あってた、NTTもNNするんだな〜とおもったよ QLSVQだったかな
104 :
名無しさん@0周年 :04/03/20 17:04
>101 最終的には教授にでもなるために院へ? それとも企業に入ってからもするため? 自分とは同じ過ちをして欲しくないもんだが。 ”実学”を学びなさい。 最も、院でやる事なんて相当企業に利益になる事分野じゃなかったら単に 院卒というだけで何をしてきたのかなんてあまり見られないけど。 見られるのは書いた論文の数ぐらい。 そんなもんなんだよ、日本じゃ。 ホントに先を見据えた上で決めたのならいいけど、覚悟は必要だという事を 肝にしかと命じておきなされ。
>>104 非常に恥ずかしいことですが、これから自分がどうなっていくか見当がつきません。
自分の能力を高めていって、論文がこれからも出せていけるのならば
教授を目指したり、外国での更なる勉強に専念してみたいと思っています。
ただ、自分の論文に対する能力がまだわからない。それが怖いのです。
>ホントに先を見据えた上で決めたのならいいけど、覚悟は必要だという事を
>肝にしかと命じておきなされ。
本当にその通りだと思いました。
>>101 で述べたのですが、いろいろと調べているうちに考えが変わってきました。
他大学院への道は考えなくなりました。
とにかく研究を進めていくためには、自分の現在の研究室に残る方がいいのではと思います。
そのかわり修士を修めた後、もし自分の実力が理想の物になっていれば、
1:米大学院 2:研究所 3:就職 4:そのまま同じ大学院の博士へ
と考えています。
>>104 もし差し支えなければ、実体験などを教えてください。
107 :
名無しさん@0周年 :04/03/21 03:23
>105,106
ネガティブなところも書いたけれども、音声認識やロボット技術等の面では
大きく前進している部分もありそう。
http://pcweb.mycom.co.jp/news/2003/03/28/11.html もしかしたら近い将来爆発的に人気が出るかも!?
ただし「出るかも!?」であって「出る!」ではナイ!
NNと言っても応用範囲が非常に多岐に渡る。
その中で何をしたいのかまで掘り下げられていて、そしてかつその分野が
実際にも使われ始められつつあるのなら可能性大!
例えばそのロボットのはいい例。
他にも、イルカの出す音波(声)から単語に熟語、さらには文法までをも
抽出するのや、コンピュータに単語入力とかして英語を覚えさせるのでは
なくて”訓練”を通して体験的に言葉を教えるとか色々ある。
元々NN自体あいまい的要素が非常に強い事もあって避けられがち。
けれどNN以外には考えられない、というのがあれば大丈夫。
自分も米産業大手に提出したものの、「内部が見れるものを理想的だ」と
回答された。要は確率による推定の方法を希望してきた。ただし、これは
一例。他の分野ではもちろんNNがおおいに生きることはあるだろう。
108 :
名無しさん@0周年 :04/03/21 03:24
研究室に残るのならその研究室でどんなテーマが出来るのか把握すること。 教授がやって欲しい事ってのがある場合もあるし。 NNを極めるのなら米大学院は理論・応用供に最高。これ以上のところはない。 MITのLincoln Labは有名。他大学でもいいのはいっくらいいのがたっくさんある。 就職はNNをやっているところ、出来るところを考えるのなら選択肢が狭まる 事を覚悟で。NNをやってきました。活かしていきたい。それだと厳しい。 教授はなんと?研究室の卒業生はNNに落ち着いたと? 博士になるにしてもNNを極めて博士になりたいのなら、本場の米大学院を 狙うのもいい体験になるのでは?ただし留学準備にはしばらく時間を要する んでその辺もまた覚悟は必要。けれど時間を要した分以上のものは十二分に 得られるはず。
109 :
名無しさん@3周年 :04/03/21 10:21
...............
>>107 >>108 アドバイス本当に為になります。ありがとうございます。
今のところ、NNで突き詰めていきたいと思っているのは
・脳の高次機能 ・カオスNN ・自己組織化(Hebb)
といったところです。
まだまだ論文は量も質も大した事は無いですが、こういうことが書ければいいなと。
現在の研究室は、特に教授に強要されるような研究はありません。
ただ、カオスに関してはかなり懐疑的で、そういったところで衝突するかも知れません。
それが、初めに他大学院を考えていた動機だったのですが。
米大学院、行ってみたいんですよね。
やはり、入るのに必要なのは元の大学の地位ではなく、論文ですよね?
ただ、どういうことをしなければいけないのか分からないので調べてみます。
理系での米大学院入試について詳しく記されているものがあれば教えてください。
111 :
名無しさん@0周年 :04/03/23 13:30
>110
米大学院はやはりNNを深くしてみたいからかな?
修士からまず見られないけれど、博士ならもしかしたらあるかも。
けど、まず論文の数は関係ない。
大学の地位ももちろん関係ない。
入りたい大学の要求にもよるけれど、とりあえず一番必要なのはGPA(評定平均値)。
これが悪いのなら今いる大学のランクなんて全く関係ない。
あとはTOEFL550最低、レベル高いとこなら600、それにGRE。
とにもかくにもこれらのための準備には時間がかかる。
アメリカ大学のランクが知りたいのならここが一番有名。
http://www.usnews.com/usnews/edu/eduhome.htm
112 :
名無しさん@0周年 :04/03/23 13:31
論文は単に修士ならあった方がいいというぐらいの話で、別になければならな いわけではないけれど、博士なら必要。 GREは英語・数学にさらに工学とかの専門のを受けさせられることもあるから 気をつけるといい。
この
>>101 とは違うけど、米大留学したいので便乗質問させて
>入りたい大学の要求にもよるけれど、とりあえず一番必要なのはGPA(評定平均値)。
>これが悪いのなら今いる大学のランクなんて全く関係ない。
もし修士を修了して博士で行くならGPAは修士での成績?
あと2行目はどういう意味?元から関係ないのではなくて?
>>113 > もし修士を修了して博士で行くならGPAは修士での成績?
学部と修士、それぞれ両方。
> あと2行目はどういう意味?元から関係ないのではなくて?
有名な大学を優秀なGPAで卒業してれば、無名な学校の優等生より強力。コミュ
ニティカレッジのGPA4.0よりアイビリーガーの3.7の方が当然のことながら高
く評価される。もっとも日本の大学なんて東大以下ほとんど知名度がないので、
そういった扱いは期待できない。
115 :
名無しさん@0周年 :04/03/24 20:47
>113 > あと2行目はどういう意味?元から関係ないのではなくて? 110で米大学院に入るのに必要かという問いに対してのこと。 その通り無関係。 GPA+GRE+TOEFL+志願動機。 特に博士なら志願動機は大きく左右するんじゃないかな。
NNは、深く行ってみたいものです。 特に最近は嗅覚とカオスの関係とかが面白いですね。 そういえば、遅まきながらJNNS:日本脳神経回路学会に登録しようかと 思っているんですが、日本の研究者で凄い人はいますかね? やっぱり、企業や研究所の方が盛んだし得るものもおおきいのでしょうか?
GPAとかGREとかTOEFLなんて評価の優先順位はすごく低いよ。一番重視される のは推薦状。米国の有名大学の有名な先生からよい推薦状が貰えたらそれに勝 るものはない。学部や修士の段階で論文を発表するなど研究実績があればそれ もすごくプラス。
>>117 同意
極東の良く分からん大学のGPAなんてあんまり信用ないだろうし
GREとかTOEFLなんて米国の大学院行くなら当たり前だし
推薦状かコネだね
あと金がこっちもちだと喜ばれる
>>118 > あと金がこっちもちだと喜ばれる
「費用当方負担」は諸刃の剣だね。受け入れてもらいやすいけど「お客さん」
状態にもなりやすい。
120 :
名無し@0周年 :04/03/25 12:21
>116 そりゃまぁ、誰かは凄いんじゃないか。 いないならキミが凄くなったらいい。 キミはどうやら研究者肌が非常に強いみたいだから、製品開発のように ものを形にするのではなく理論がすごく似合いそうだ。 NN、深くまでやって凄くなりんさい。 米国の院でPh.Dが当面の夢かな? 道中気を付けてな。 >117,118 言えてる言えてる。 何がしたいかを明確にするのも大事だけれど推薦状は大きくものを言う。
121 :
名無しさん@3周年 :04/03/30 16:50
今NNで推計してるけど、重回帰でやると大きな変動を説明変数にすると どうしても平均的な値になってしまう。 詰り線形では十分に説明出来ない。そこでNNの登場で結果が良ければ それで良しとするようなシステムに用いる。 線形回帰で50数%のものがNNでは90%以上にもなる。 だからもう試行錯誤で隠れ層1層から3層、セル数数個から20個、 バイアス有無について総当りでPCをぶん回す。良い結果が出て来たよ!
122 :
名無し@100周年 :04/04/02 10:49
>121 あ、そ。 で・・・満足したかい?
123 :
名無しさん@3周年 :04/04/03 00:04
NN構造決定を自動化(最適化)についての論文が、10年くらい前にイパイ発表されてたよな・・ でも未だ人間が試行錯誤してるってことは、 論文書くネタにはなったけど、たいした成果が得られなかったってことなんかな
124 :
名無しさん@20周年 :04/04/03 09:53
>123 そーゆーこと。 いまだに「>95」が言うように、誰かがとんでもない発明みたいなので どんでん返しでも起こすの待ってんだよ。 所詮NNですさ。みぃーーーきり見切り☆
125 :
名無しさん@20周年 :04/04/03 09:56
このレス2002年に出来てかれこれ2年でまだ124ですさぁ。 そんなもんでんがな。他のポピュラーな分野みてみぃや。 あっという間に1000越えで、次レスに行く。 この分野は足踏みしてらぁ〜〜な♪
126 :
名無しさん@3周年 :04/04/04 18:32
質問していいですか?
院生にこの春なりました。
早速論文に取り掛かっています。
ところで、ニューラルネットはどのような学会で取り扱われていますか?
自分は画像処理という事で電子情報学会に行こうかと思っています。
>>116 の人みたいに日本神経回路学会などもあるようですが、
他にもどのような学会で発表されているのですか?
127 :
名無しさん@20周年 :04/04/06 07:33
>126 funny... >質問していいですか? 質問していいよ、こういう愚問じゃなけりゃさ。 そういうNNがどの学会とか、教授に聞いたらどう? 一番詳しいはずでがしょ。 そんなことも知らないならアンタ、その研究室間違いだよ。 学会? NNなんてどの学会に出てくんだよ。 機械もあれば情報、航空、医学、電気・電子、土木、なんでもありな わけよ。 一般で言ってるんならInt'l conf for nn.が無難だけどさ。 画像系論文でNN関連をみて、そこにあるReferenceからイモづる式に たどっていけばゴマンとあんだよ。 画像処理系でのNNの未来もチャンと教授に聞いておきな。 実社会でどう使われてんのか、それを聞くんだよ。 院で無意味な2年過ごす前にさ。
128 :
名無しさん@3周年 :04/04/07 22:00
ニューロ使っての画像処理は、もうやりつくされてる気がする・・ サーベイ大変そうだけど、がんばってね
129 :
名無しさん@3周年 :04/04/08 04:41
去年の春にニューラルネットワークのクラスを取って以来その分野に はまっていたものです。修論もNNを活かしてで、国際学会でも発表しました。 ですがどうもNNが実際にアプリケーションとして使われている場が 論文で言われている程使われている感じがせず、卒業してからはVLSI関連 やデジタル回路関連しようかと思ってます。 院でNNに浸かってましたがやり直すなら今しかない!と思って。 NNってある意味人を惹きつけては落とす感じがして正直ガックリ。 コレを読んでるソコのキミ、そうキミだよキミ。 シッカリとNNについて考えた方がいいよ。 もちろん学位欲しいだけで、今はNNさ!なんてなら話は別だけど。
130 :
名無しさん@3周年 :04/04/23 06:09
ニューラルネットワーク=NG
131 :
名無しさん@3周年 :04/04/25 22:00
とりあえず101がどうなったのか気になるのだが・・
132 :
名無しさん@3周年 :04/04/29 08:30
正式名称:ニュートラルネットワーク
ニューラルネットワークって、研究する分には面白そうですね。 今は実用性なくても将来的には用途がありそう。 ノイマン型のコンピュータとは相性良くないんだろうなぁ。
134 :
名無しさん@3周年 :04/06/13 20:02
自己組織化ニューラルネットワークってどう?
135 :
名無しさん@3周年 :04/06/13 20:18
ハードウェア的に多値回路として扱うのも面白いよね
136 :
名無しさん@3周年 :04/06/14 23:35
コホネンのSOMとか最近よく見かける気がする
BP法の改良はダメなのかなー・・?
138 :
名無しさん@3周年 :04/06/15 11:17
>>126 人工知能学会とかありますよ。申し込み過ぎてるけど。
139 :
名無しさん@3周年 :04/07/08 21:49
>129 激しく胴囲。 面白いんだけど、がっかりすること多いよね。 制御に使うにも、実システムに適用する際に、 そんなにたくさん実験し学習させていたら、 時間とお金がたくさんかかる。。。 シミュレーション上で学習させておいて、それをニューラルネットコントローラの 重み係数に設定すればいいかなと思ったけど、 実システムとモデル化したシミュレーションのモデルとの間には、 モデル化誤差があるからね。。。 NNが完璧なロバスト性が示されていて、 ロバスト性が保証される範囲が明確になっていれば、いいんだけどね。
140 :
名無しさん@3周年 :04/09/29 20:10:12
ニューラルネットワークって、未来はあるのでしょうか?
141 :
名無しさん@3周年 :04/10/17 23:50:59
このスレなみに没落はやそーな・・
>>140 そーいや神経回路学会って破算したよね?
142 :
GEORGIA ◆kR.pP3tF7. :04/10/19 19:01:49
NASAの開発したIFC (Intelligent Flight Control)、NNを活かしたものです。 1989年 7月にUNITED 232便DC-10ジェットの操縦機能が失われ、エンジン部以外 の飛行制御を探りはじめてから約15年の実験を重ね、民間機へのIFC搭載も可能 と考えられる程になりました。F-15ジェット戦闘機での実験も計画にあるそうで す d:-) Markovモデルに元ずくNN実装は、どういった解を求めるか自明である事が前提に ある筈ですね。人工知能も応用分野のひとつでしょうが、NN研究は学習法と確率 的/ 決定的システムの高度な実現に掛かっていると理解していたのですが /(_' 少しピントがずれておりましたか..
143 :
名無しさん@3周年 :04/10/19 19:50:04
まくろふもでるならNNもつかえんのか? じゃあどうやって? だれかわかりやすい論文か、教科書書いてくれ!
144 :
名無しさん@3周年 :04/10/19 20:06:12
NNよりCNN(セルラーニューラルネットワーク)なら、集積化にも向いてるし将来性ありそうな気がするんですけど どうなんですか?
145 :
名無しさん@3周年 :04/10/25 01:28:52
CNNアツイ!! 日本じゃまだまだ普及してないけど。
146 :
名無しさん@3周年 :04/10/25 16:31:43
CNNの研究してる大学どこぉ?
147 :
145 :04/10/25 22:57:47
うちの研究室は、海外の大学と共同でCNN研究してるよ。
148 :
名無しさん@3周年 :04/10/26 17:40:35
心理学系ではどうなの?これ
149 :
名無しさん@3周年 :04/10/26 22:22:39
CNNの簡単なシミュレーションにはCANDYがお勧め
150 :
名無しさん@3周年 :04/11/06 20:41:18
やはりNNはこのスレと同様に(以下略)
セルラーニューラルネットワークって、 ユニットを格子状に配置したニューラルネットワークのこと?
152 :
名無しさん@3周年 :04/11/17 10:49:10
153 :
名無しさん@3周年 :04/11/19 07:51:18
>>152 ケツ号半径ってなによ?
市具も井戸関数への入力が-0.5〜0.5ってこと?
それとも市具も意度関数の出力が0〜1ってこと?
154 :
名無しさん@3周年 :04/11/19 18:53:03
CNNは階層型とは違って、面上に格子状に並べたもので NNとの最大の違いは、各セルが周りの8個のセルのみ(つまり結合半径=1)と結合したもの だから、配線が最小ですむためLSI化に向いている
155 :
名無しさん@3周年 :04/11/20 15:14:10
ニューラルネットワークは実践的じゃないよね?
ねずみ脳のが現実的
日本は国策としてカオスニューラルネットワークの開発を官民あげてやるべし !!! 日本の生んだ天才脳科学者津田一朗博士を称えよう!!! 脳において発生するカオスは脳内の認知・推論・判断といった人間の基本的な行動に関して非常に重要な役割を果たしていると 津田博士は考えておられる(詳細はサイエンス社出版「カオス的脳観」を参照されたし カオスニューロ回路を大規模システムへと拡張、現在は一万ニューロンシステムという さらに大規模なシステムを公尽くしている(サイエンス社:computer today01年11月号)より とにかくカオスニューロは巡回セールスマン問題のような難問においても局所解に陥りにくい という非常に優れた能力を持っていいるのが従来のニューラルネットとの違いである。 もしこの現在進行中のカオスニューロ開発計画が順調に進み、成功した暁には、いったいどれだけの強い インパクトを計算機科学界のみならず、大脳生理学や果ては社会学といった異分野にまで 及ぼし、日本が世界に先駆けて「大脳を人工的に作る」という世界的に見てもきわめて独創的といえる テーマをなんとか成功させてほしいものである。
カオスって言うと聞こえがいいがただのランダムだしな 最適解に収まるまでにそうとう苦労しそうな予感 そりゃ谷がなけりゃはまることもないわな ニューラルネット自体に万能は不可能と正面されてるんだから 計算過程をいくら工夫したっていっしょ ニューラルネットの多段ネットワークがきもだろうな
>>158 あなたは言葉の使い方が間違っているし、原理もほとんど解かっていないように見える。
>>158 > カオスって言うと聞こえがいいがただのランダムだしな
カオスはランダムじゃないぞ。
> そりゃ谷がなけりゃはまることもないわな
アトラクタはあるぞ。
> ニューラルネット自体に万能は不可能と正面されてるんだから
ワケ ワカ ラン♪
∧_∧ ∧_∧ ∧_∧
( ・∀・) ( ・∀・) ( ・∀・)
⊂ ⊂ ) ( U つ ⊂__へ つ
< < < ) ) ) (_)|
(_(_) (__)_) 彡(__)
161 :
名無しさん@3周年 :04/12/02 10:15:16
最適経路問題を地図に対応する格子状のニューラルネットワークで解くのは、歴史的な慣習なのか? 現実で良く似たケースを探すと、餌がある経路を発見する粘菌の知能を近似しているように思えてならない。 今の人工知能は粘菌レベルということなのだろうか……。
粘菌のがまし
163 :
名無しさん@3周年 :04/12/03 00:03:25
ニューロンモデルを組み合わせてセルラニューラルネットワークをシミュレートしてみた。 発火は入力のしきい値乖離量で近似(負の場合はゼロ)。結合は興奮性と抑制性を兼ねるため、荷重には負の値も許可。 実行すると、左端(入力層)に近いほうから徐々に構造化が進んだ。 構造化が右端まで進むと全体的に発火は鎮静化していき、目立つ発火は1割くらいに。 時折思い出したようにぼうっと発火するニューロン。やけに生物くさい感じがする。 さて、残る問題は……「これ」に何が出来るか調べること…… 検証方法はまだ、考えていない…… ○| ̄|_
結局、いつになったらニューラルネットでシンボル操作ができるようになるの?
そもそもニューロンをたかだか数ビットの数値で表現しようとしても無理だよね 結局は入力パターンの数だけの出力パターンがあるだけだし しかも完璧じゃなさすぎる バイオデバイスの研究に期待
166 :
名無しさん@3周年 :04/12/03 12:23:26
ニューラルネットワーク 方向性のない、解を求めるコンピュータ ロボットの感情に使えるのかな、暴走したら、どうするんだろう
167 :
163 :04/12/03 22:18:20
セル全体の平均発火量(脳波)とか発火周期とか色々調べてみたけど、既知と未知の分類器としては今のままでもそれなりに使えるみたい。 ただ、知能や感情の代わりとして使うなら、快/不快の評価に応じてダイナミックに 結合荷重の変動量等を変える仕組みが要りそうな予感。 好きなことを優先的に、嫌なことを無視するように学ばせると、その偏りが性格になる。 盆栽の枝ぶりの特長と、ヒトの性格は、個体の成長の偏りという意味で本質的に同じものだからね。 非均一な情報処理の実現のために、疲労度もパラメタに入れるべきか……悩む……。
この感情ってのが曲者だよね 向上心、自己防衛、好き嫌いっては人間でも常に変化してるからね 0か1じゃ表せない その上にさらに条件判断というニューラルネットが張り巡らされてる 根底にあるのは本能だと思う 問題はこの本能の部分をプログラミングできるかどうかにかかってる ニューラルネットを構成する為のニューラルネットを単純学習で作れるかどうか 病気にならない 言うことを聞く 誰とでも平等に接する 感情の起伏が無い こんなニューロン構成の出来るニューラルネットを作れたら完璧だと思うよ
>>163 結合荷重の変動量を動的に変えるのは
学習時間を短縮するために使われる一般的な技法。
別に知能や感情に限ったことではないけど…。
> 好きなことを優先的に、嫌なことを無視するように学ばせると、その偏りが性格になる。
要するに、「これを好きになりなさい」「これを嫌いになりなさい」と躾ているわけだね。
それを個体の成長の偏りと言っていいものか。
僕もニューラルネットで知能を実現したいと思っていたときがあって、
そのとき考えてたのがボルツマンマシンの温度を感情のバロメータとして
使えないかということ。
結局、その時はもっと先にやりたいことがあったんでやらなかったけど。
多分これからもやんないと思うから晒すけど、どうかな。
171 :
163 :04/12/05 10:06:11
>>169 それは、単層、多層パーセプトロンでの誤差の収束効率の話?
自分がやった独自モデルでのニューロン群シミュレーションでは、まだ教師信号やフィードバックは使ってなくて、
単に入力に対応する固有パターンが形成される様子を観察しているとゆー状況。
パターン形成は結合荷重の変動率が固定でもかなり高速で、
むしろ使用済みリソースの再利用の方が課題なんだけど……
やはり結合荷重の変動率の変動だけじゃ解決できんかな……。
忘却も導入してみるか……。
カーネギーメロンのPDP++を使ってる人いる? コロラドのLeabraは? こっちアルゴリズムはerror-driven+hebbian を使ってるな。
173 :
名無しさん@3周年 :04/12/16 21:36:34
age
174 :
名無しさん@3周年 :04/12/20 21:18:49
ペットロボットの思考制御に使えないのかな?
175 :
名無しさん@3周年 :04/12/20 22:07:53
176 :
名無しさん@3周年 :04/12/23 18:55:33
ミリンダファイト
177 :
名無しさん@3周年 :05/01/11 10:18:27
ボルツマン萌え
178 :
名無しさん@3周年 :05/01/11 17:59:48
脳関連でネズミの脳の一部機能を代価する実験とかいう話あったらしいね。 これもニューロネットらしいけど。 最終的には脳を損傷した人の医療用とからしい。 俺には理解できない話だけど。 質問なんですけど うまくいかないアプローチだとは思いますが、 大量の経済指標をぶち込んで経済の先行く予測研究してるような所ないですか? 昔、日曜大工気分でそれやって挫折した経験があるんで、どんなものかなと思って。
179 :
名無しさん@3周年 :05/01/14 11:53:10
180 :
名無しさん@3周年 :05/01/14 23:18:00
181 :
名無しさん@3周年 :05/01/16 14:50:38
>179 怪しい研究機関がそこそこの金かけて やってるとかだと思ったら天下の地球シュミレータですか。 なんか世の中って変。
182 :
名無しさん@3周年 :05/01/18 20:16:20
183 :
名無しさん@3周年 :05/01/18 20:18:33
184 :
名無しさん@3周年 :05/01/21 00:50:53
趣味レータ
185 :
名無しさん@3周年 :05/01/21 09:08:14
186 :
名無しさん@3周年 :05/01/21 11:30:53
ミリンダファイトじゃないのか?
187 :
名無しさん@3周年 :05/01/21 12:09:18
188 :
名無しさん@3周年 :05/01/23 02:32:55
経済シミュレーション むりだよ! 誰が2chなんて予言できるんだ? それと同じくらい将来の予測経済ポリシーがわからないと、 むりだよ!
189 :
名無しさん@3周年 :05/01/23 02:37:03
地球シミュレーション むりだよ! 誰が阪神・新潟・スマトラを予言できるんだ? それと同じくらい将来の予測災害度がわからないと、 むりだよ!
∧( ̄ ̄ ̄ ̄\ /  ̄ ̄ ̄\ \ ( ̄ ̄ ̄\ .| (°) (°) l \ \  ̄ ̄\ \ | (●) | / l .\ \ | l∪l l/ / あばばばばばば \ \ \ .ヽ/ ./ / \  ̄ ̄ /  ̄ ̄| | | | / ̄ ̄ ̄ ̄) | | / ̄ ̄ ̄ ̄ ̄\ / / ̄ ̄ ̄ .| | < ● ⌒ _ \/ // ̄ ̄ ̄ ̄) / /l .| | ● ⊃> / / ̄ ̄ ̄ / / | | < ● 、_,  ̄ __/ /\ / / | | \_____/ \ \ | | \ \ \ \ .| | .\ \_ あ | | | | \ l ば | | \ \  ̄l | ば / | / /  ̄ ば / /l |  ̄ ̄ / / | | / / | | | l ̄ |  ̄) \_)
191 :
名無しさん@3周年 :05/01/27 11:24:19
>>182 の下のリンクが何の研究なのか、わからない
教えて。詳しい人
192 :
名無しさん@3周年 :05/02/06 04:04:26
俺はいちおうニューロの研究してた みんな見当違いだけどでそれらしい書き込みして ニューロの印象悪くすんなよな
193 :
名無しさん@3周年 :05/02/08 13:26:30
194 :
名無しさん@3周年 :05/02/15 00:23:08
3層フィードフォワードNNだと、入力と出力の関係 出力=f(入力) を近似できる。 その関数f()を、細かいことは知らなくても、具体的なデータを使って学習により取得できる。 ってことでOK? ボルツマンマシンはよく判らないけども、 評価関数から計算して結合をうまく設定すると、 任意の初期状態からはじめて、しばらく動作させるとミニマムのところで平衡状態になる ってこと? 3層NNの方を、株価の予測とか、売買シグナルを出すためとかに応用してみようと思ってます。 趣味程度のものだけど。 過去5日間の株価データを入力にして、 出力は6日目の株価とか、{-1, 0, 1}で{売り,中立,買い}とかを考えています。 参考になりそうなサイトとかってありますか?
無理
入力する形式に全然工夫せず出力形式の仕様を 真っ先に決めるのはどうかとおもう あと、過去5日分のデータを使うそうだが、それだと 今みたいに決算前で微妙に株価が上がるとかそう いった情報が入らないだろう こんな事言っておいてなんだが適当に作っても何らか の出力が得られるだろうから趣味には向いてると思うぞ ガンガレ
197 :
名無しさん@3周年 :05/02/16 22:49:22
>>194 大和証券が似たようなことやってたなあ。
Campbellって人のファイナンスの計量分析とかいう本に、
NNの金融への応用法が載ってたよ。(但し、オプション
プライシングだったんで予測ではないけどね)
198 :
なまえをいれて :05/02/18 00:30:25
17年前、甘利さんの本や、数理の本などに特集があり、 プログラムを組んでいたのが懐かしい。 いろいろなパターンを学習させて認識させるのが面白かった記憶がある。 ただ、会社にはいったらだれもしらないので悲しかった。
200いただきまんもす (σ´・∀・`)σ
201 :
名無しさん@3周年 :05/02/19 10:44:32
202 :
名無しさん@3周年 :05/02/19 13:58:14
もまいら、認知科学のはなしもしれ
∧_∧ ∧_∧ ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。 =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕 = ◎――――――◎ 山崎渉&ぼるじょあ
...これからも僕を応援して下さいね(^^)。 ━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━― ∧_∧ ピュ.ー ( ^^ ) <これからも僕を応援して下さいね(^^)。 =〔~∪ ̄ ̄〕 = ◎――◎ 山崎渉 __∧_∧_ |( ^^ )| <寝るぽ(^^) |\⌒⌒⌒\ \ |⌒⌒⌒~| 山崎渉 ~ ̄ ̄ ̄ ̄ ∧_∧ ( ^^ )< ぬるぽ(^^) (⌒V⌒) │ ^ ^ │<これからも僕を応援して下さいね(^^)。 ⊂| |つ (_)(_) 山崎パン ∧_∧ ∧_∧ ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。 =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕 = ◎――――――◎ 山崎渉&ぼるじょあ
205 :
名無しさん@3周年 :05/02/25 20:38:22
ニューラルネットワークはどの変数が効いているかを判断することはできるのでしょうか?
脳はどのニューロンが効いているかを判断することはできるのでしょうか?
207 :
名無しさん@3周年 :05/02/27 21:01:03
データマイニングに応用する方法ってどんなのがある?
208 :
194 :05/03/02 23:42:18
209 :
名無しさん@3周年 :05/03/12 18:59:10
実務家の人がいたら質問。 NNを使った報告書のアウトプットにはどんな項目が並ぶのでしょうか?
210 :
名無しさん@3周年 :2005/03/21(月) 10:29:44
NNのボルツマンは量子力学の応用モデルとして可能かな? 担当の教授はその方向性もあり得るとかで力説してたけどね。 確かに、量子力学のいくつかの特徴はおさえているけど、 本質的には、異なる様に思える。 具体的には観測による確率波の収束だね。 ボルツマンだと、ただ単に確率的に試行を繰り返し統計を取っているだけで 観測には依らない。 しかし、実際の量子論では観測により結果が一意に決定されてしまう。 統計的に見ると出力の期待値は同じかもしれないが、この違いは大きい。 つまり、出力に至るまでの過程が異なっている可能性がある。 ただ「観測の理論」は発展途中なので、 観測により、どの様に確率波が収束されるのかは不明。
211 :
名無しさん@3周年 :2005/03/21(月) 11:09:27
>>205 >>206 入力変数、ユニット間の重み係数を見て判断すればいいんじゃないの?
或いは、重み係数の変化量を基準にするとかは?
212 :
名無しさん@3周年 :2005/03/21(月) 11:12:51
>>210 理系のNNはかなり高度だな?
工学系には、疲れる。
>>212 そりゃ、数理系と工学系の本質的な違いとして、
仕組みを知らなきゃ、と
使えりゃ良いよ、
って違いがあるからねぇ。
214 :
名無しさん@3周年 :皇紀2665/04/02(土) 01:05:57
ニューラルネットワークとコネクショニストモデルってどう違うの?
215 :
名無しさん@3周年 :2005/04/03(日) 00:05:21
216 :
名無しさん@3周年 :2005/04/03(日) 09:47:42
コネクショニストモデル⊃ニューラルネットワーク
217 :
名無しさん@3周年 :2005/04/04(月) 03:44:42
イッチーことI原憲克氏の所為により
Winny、Winny2、Share&画像掲示板上にセフレ☆ハメ鳥写真大量公開中!
I氏の母曰く、「私たちはどこへ訴えたらいいんでしょうか・・・・」
・・・・・・もう絶句です。
まさに”自分たちのことしか考えていない”ですね!
ハメ鳥を晒された女性(I氏=イケメンゆえに相応の美女達)
の立場をまったく理解していないばかりか
既に被害者ヅラ・・・これがエリート公務員の実態なのでしょうか?
こいつらには最善の選択肢「自首」という概念がまったくないようです!
詳細は痛いニュース板の専用スレッドで・・・
http://news18.2ch.net/dqnplus/
218 :
名無しさん@3周年 :2005/04/15(金) 00:20:12
NNの問題は量子コンピューターのアルゴリズム開発と発見を待つべし。
それよりもやはり天才待ちって感がするんだが。
220 :
教えて賢い人 :2005/06/22(水) 16:37:50
3方向異方性材料のチップ(大きさ、長軸・短軸比ランダム、木の板のようなもの)を接着剤を使って熱プレスした複合材料で 材料表面のエレメント配向を説明変数、ヤング率・強度を目的変数とする場合、 ノードの種類や結合はどのように配置するのがよいでしょうか。 使っているソフトはJooneです。 その他相談事項 エレメントの重なり合う面積が加重伝達と関係が深い→ヤング率に影響大なので入力変数を配向角のコサイン値にしたほうがいい? 材料の密度もヤング率に影響大なので説明変数にいれたいのですが、次元の違うものを入力データで一遍にいれるのは良くない? 教えて、賢い人。
Interopに行ったとき、参考出品でNNを使った試作品を展示しているところがあった。 ちょっと質問してみたけど、技術者の人じゃなかったからつまらんかった。
222 :
名無しさん@3周年 :2005/06/27(月) 08:18:27
風俗、ソープ板だと、NNと言えば、生中出しのことみたい。
今の学習のアルゴリズムは、白紙からの学習は、扱っていないので NNの議論には、無理があります。やはり量子コンピュータを待たないと いけないようです。
ANN (artificial neural network) でOK?
Anal Nama Nakadashi ならOK。
226 :
名無しさん@3周年 :2005/06/30(木) 01:27:36
227 :
名無しさん@3周年 :2005/06/30(木) 23:45:17
よくよく考えたんだが、 ニューラルネットも目的変数と説明変数が線型関係じゃないと駄目だよな? ニューラルネットなら非線形関係でも平気と謳っている書籍が多すぎる。
228 :
194 :2005/07/03(日) 01:19:58
自分が読んだ本には シグモイド関数からインパルス関数を作って インパルス関数のn倍をずらしながら足し合わせることで 非線形の関数も近似できるって書いてあったけど
で、キミは非線形関数も近似できると思っているの? 二次関数、三次関数と....
230 :
194 :2005/07/03(日) 11:34:41
できるよ 十分な精度を出すのは難しいかも知れないけど
231 :
名無しさん@3周年 :2005/07/03(日) 12:52:21
194は実務未経験者だろ
232 :
名無しさん@3周年 :2005/09/03(土) 12:59:05
NN(リカレント型)にホモトピー法を使っている人いる? BP,SCG法等では誤差率2〜3%になると収束がほぼ停止。 (学習データは、宇宙線の観測数,地震波等の時系列データ) PRCG,FRCG法等は今後試す予定だけど、線形探索が計算に含まれるから期待薄。 そこで、新たな学習方法を模索中。
233 :
名無しさん@5周年 :2005/10/26(水) 03:10:02
SOMを時系列に対応させるのってどうやるの?
234 :
名無しさん@5周年 :2005/10/27(木) 11:14:29
寂しい板だな 質問しても誰も答えず 親切心で答えても礼の一言もない
235 :
名無しさん@5周年 :2005/10/27(木) 19:29:43
236 :
名無しさん@5周年 :2005/11/06(日) 23:36:42
複素ニューラルネットワークって実数とくらべてなにがいいんですか?
誰か非単調ニューロンやってる人いる?
>>238 電子情報通信学会:Vol.83、No.8、2000年に解説が載ってる。
241 :
名無しさん@5周年 :2005/12/09(金) 01:57:50
>>238 電子情報通信学会誌 Vol.87, No.6, 2004年6月
小特集「応用分野が広がる複素ニューラルネットワーク」
こちらも参照されたし。
http://www.ieice.org/jpn/books/mokuji/2004/2004_06.html 小特集編集にあたって・・・・・・・・・・・・・編集チームリーダー 畑岡信夫 446
1. エレクトロニクスを豊かにする複素ニューラルネットワーク・・・・廣瀬 明 447
2. たった一つの複素ニューロンができること・・・・・・・・・・・・新田 徹 450
3. 複素連想記憶のモデルとそのダイナミックス・・・・・・・・・・・黒江康明 454
4. パーセプトロンと単一ニューロンモデルの複素化・・・・・・・・・根本 幾 460
5. 自然画像を扱う複素ニューラルネットワーク・・・・・・・・・・・青木宏之 465
6. 四元数ニューラルネットワークによるカラー画像処理・・・・・・・松井伸之 471
7. 非興奮状態を持つ複素ニューラルネットワーク・・・・・宮嶋照行 山中一雄 476
8. 位相と振幅を見るスーパ右脳
――干渉型レーダイメージングシステム及び適応的な光波位相等化器への応用――
・・・・・・・・・廣瀬 明 Andriyan Bayu SUKSMONO 川田宗太郎 482
9. 量子ニューラルネットワーク実現への試み
――量子ビットをニューロンとして使うために――
・・・・・・・・・・・・・・・・・佐藤茂雄 金城光永 中島康治 488
242 :
名無しさん@5周年 :2005/12/14(水) 17:24:40
tleanを使って入力層18、中間層18、出力層1のネットワークを教師信号6000で4000回学習させたのですが、 1000回あたりまで順調に収束していき1200回あたりでエラー率が0.5に跳ね上がり、2000回あたりでまた収束。 2200回あたりでエラー率がまた跳ね上がり...というのが繰り返されます。 こういう感じでエラー率が推移するのは教師信号が悪いのでしょうか? 設定(.cfファイル)は以下のようにしたのですがこちらが悪いのでしょうか? NODES: nodes = 19 inputs = 18 outputs = 1 output node is 19 CONNECTIONS: groups = 0 1-19 from 0 1-18 from i1-i18 19 from 1-18 SPECIAL: selected = 1-19 weight_limit = 0.1
243 :
名無しさん@5周年 :2005/12/19(月) 22:00:16
tleanってなに?
244 :
242 :2005/12/20(火) 09:11:37
245 :
242 :2005/12/20(火) 09:12:44
246 :
名無しさん@5周年 :2005/12/20(火) 16:54:31
weight_limit 変えたらどうなる?
ニューラルネットでなにか修論書かないといけない… さて、どうしたもんか。まずは調査かな
250 :
名無しさん@5周年 :2006/02/05(日) 14:24:40
251 :
名無しさん@5周年 :2006/02/05(日) 22:18:33
シミュレータで研究?
252 :
名無しさん@5周年 :2006/02/05(日) 23:40:52
253 :
名無しさん@5周年 :2006/02/06(月) 00:10:27
出会い系で出会えない・やれないってのは、やり方が下手なだけです。
1)まず、1つメール文を考えて、それを50人くらいに一気に送る。
2)返事があった女の子に、直メールでのやり取りを提案するダメなら冷やかし認定でパス。
3)やけに会う気満々の子や、テンションが高すぎる子もサイト常連ブスor風俗or常連個人売春認定でパス。
これだけフルイにかけると、2、3人しか残らない。 その相手とメールすること。そうすれば普通に出会える。
あとポイントは絶対に褒めること!これ大事。どんな部分でもいいからチャームポイントを見つけ褒めたおす。これ使えます!
そしてホテルは当日絶対に誘うこと。出会い系の女は相手も複数相手にしている場合が多いから
出会い系歴5年の私の経験からくる鉄則である。
こんなやり方したら、よっぽど不細工な男じゃ無い限りちゃんと出会える。
いま一番会えるサイトは素直にココ!! ⇒
http://550909.com/?f4632187 エキサイト、スタビ、Mコミュもやってるけど今のところ一番女の回転が速いサイトです。
254 :
名無しさん@5周年 :2006/02/09(木) 07:53:13
シミュレータで研究?M2?本気かな?卒業できるのかな?
255 :
名無しさん@5周年 :2006/02/09(木) 07:54:47
シミュレータなんて他人事だしかんけーないかなぁ
左翼派コネクショニスト
257 :
名無しさん@5周年 :2006/02/09(木) 10:16:26
今更、て感じだね、他人事
258 :
名無しさん@5周年 :2006/02/10(金) 14:44:41
学部は?
259 :
名無しさん@5周年 :2006/02/10(金) 16:10:08
他人事にツッコミ入れても仕方ないよ
260 :
名無しさん@5周年 :2006/02/12(日) 14:12:14
ITに疎くて携帯出会い系さっぱり使い方わかんなくてぼったくりで大赤字しちゃった最悪
261 :
名無しさん@5周年 :2006/02/13(月) 13:48:08
シミュレータで研究て応用すべきテーマ設定して論文出すて感じなんだろうなぁ
262 :
名無しさん@5周年 :2006/02/13(月) 23:21:11
263 :
名無しさん@5周年 :2006/02/20(月) 18:36:32
>>242 俺も学部の研究でニューラルネットワークをC言語で実装したんだけど
同じような事になったなぁ。
でも、学習係数を小さくするとある程度は抑えられたよ。
あと、ネットワークにボルツマンマシンの温度を実装して
温度を下げるだか上げるだかすると少なくなった気がする。
264 :
名無しさん@5周年 :2006/03/16(木) 03:14:22
ベイジアンネトワーク最強
265 :
名無しさん@5周年 :2006/03/16(木) 19:52:06
>>264 何それ?
ヤッホーでは出てこなかったけど。
>>265 でてこないわけない。まさかネトワークのまま検索したなんて低脳っぷり(ry
>>266 あッ!
確かに、そうでした。低脳でつよ。。
よーーく考えるんだ
269 :
名無しさん@5周年 :2006/03/30(木) 15:03:54
>>242 更新係数(学習率係数)を一定にしている場合はよくある話だと思われ。
NNのパラメータを基底とした誤差曲面の勾配に沿って
パラメータ座標を移動させるのがBP法だが,
学習係数が一定だと移動しすぎて逆に誤差が拡大してしまう可能性あり.
特に誤差曲面の形状がパラメータ空間において不連続の場合だと一気に誤差が拡大.
一つの対処法は,学習率を可変にして,各パラメータの更新時に
直線探索(どの学習率のときが一番誤差が小さくなるかを調べる)を行う.
270 :
名無しさん@5周年 :2006/04/23(日) 08:18:23
age
ニューラルネットかじったばっかみたいなもんなのですが、 例えば、パーセプトロンやバックプロパゲーションNNなどのモデルは、 層で構成されますが、 実際の脳みそはもっと網ってかんじのネットワークですよね?たぶん。 そんな網的なモデルをもったNNってなんてやつですか? さすがにないわけはないと推測してるんですが。
272 :
名無しさん@5周年 :2006/05/03(水) 04:09:10
初心者質問なのですが、バックプロパゲーションNNで学習可能なデータ数の数学的な指標みたいなものは あるのでしょうか? 例えば、”2入力1出力なら中間層の数が○○なら◇◇くらいのデータ数はまともに学習可能です”みたいな
274 :
名無しさん@5周年 :2006/06/05(月) 00:18:20
隠れ層ってどういう役割をするの?
>>274 入力ベクトルを特徴空間に写像して、線形分離できるようにする
・・・だと思う。
276 :
名無しさん@5周年 :2006/06/15(木) 04:06:32
バックプロパゲーションを使って1次元非線形信号の近似ってのは みたことあったから、2次元でもできるかと思って画像データ学習 させたけどうまくいかなかった
278 :
名無しさん@5周年 :2006/06/15(木) 19:52:34
漏れ電気系でちょっと興味あるんだけど電気系への応用例ってなんかある?
>>277 論文とか読んでると、通常のNNに対して複素NNを絶賛してる
内容が多いけど、そんなに処理能力が高いの〜???
そういうのを参考に、実数-虚数型と振幅-位相型のBPを作ってみたけど
あまり、通常のNNと変わらないような希ガス。
ただ、必要な素子数が減った。だけど、そこには新たな問題がッ〜!!!
俺も論文読んで複素NNを構成してみたけど、同じデータをそのまま使うだけじゃ当然だけどだめだねー・・ 複素モデルって、単純な拡張のやつから、複素の特長を生かした位相振幅モデルとか、他にもいろいろあるし、使うのが難しそう しかも入力するデータも考えなきゃいかないし 2000年前からあったのに、論文調べても、「この例でうまく行ったよ!ヤッパリ複素はすごそうだよ」レベルからずっと進歩してないな 3次、4元数とかの更に高次元のNNになると、ほとんどデータ自体がないしあんまり注目されてないのかねぇ・・・ P.S. 参考にしていた論文の、BPアルゴリズム(偏微分の計算)が間違ってマスタ。。。 つからない事でずいぶんと時間使っちまった。。。
283 :
名無しさん@5周年 :2006/06/22(木) 22:28:07
みんなの卒論、修論はNN関係?
284 :
名無しさん@5周年 :2006/06/23(金) 05:34:18
285 :
名無しさん@5周年 :2006/06/23(金) 05:56:33
>>284 誰がうまいことを言えと。
誰かSVMやってない?
286 :
名無しさん@5周年 :2006/06/23(金) 07:05:25
僕の人生にNNをアプリファイしたいのですが、どうも目標との誤差が大きくて エラー起こし気味で、どうしてもニートという局所解に陥ってしまうのですが、どうすればよいですか?
>>282 >P.S. 参考にしていた論文の、BPアルゴリズム(偏微分の計算)が間違ってマスタ。。。
>つからない事でずいぶんと時間使っちまった。。。
(゜д゜;マジ・・・・・ですか・・・・・。
鵜呑み、テラコワス。
カーネルカーネル
得体の知れないカンスーのクーカンとやらでごにょごにょやってて 騙されてる感がある。さすがカーネルトリックと名乗るだけのことはある。 ついでに言えばVC dimensionがよくわからん。
>>286 重みを初期化、学習係数、慣性係数の付け直し、
つまりリセッ(ry
SVMって、計算上次元を無限にしてから二つのパターンに線引きして、元の次元に戻して結果出力って奴だっけ?
>>291 それは一般にカーネルテクニックに関することでSVMのことではないですね。
線形なクラス間境界を構成する少数のサポートベクターを見つけるのがSVM。
ちかごろはSVMというとほぼカーネル関数を伴ったものを指すのだろうけど。
つまりカーネルを通して見た世界では、もとのクラス間の非線形な境界面が
むこうの世界では線形になってるというシロモノ。
カーネル法にしても、カーネル君がカンスーのクーカンの計量を告げる
イタコになってるだけでもとの空間の情報(データ)はあっち行ったきりで
元に戻ることはないんじゃなかったけ。
※ とてもいいかげんな理解なので信用しないように
>>292 とりあえず俺が勘違いしていることは分かった
暇を見つけて勉強してみます・・・
>>273 どっかのサイトに適当な指標があったけど結局これと
いったものはなくて試行錯誤できめるしかない
295 :
名無しさん@5周年 :2006/07/01(土) 22:38:30
SVM勉強しようとおもったが、 カーネルトリックで(゚∀゚)アヒャーとなった。
使うだけなら簡単なんだけどね。
297 :
名無しさん@5周年 :2006/07/03(月) 21:59:01
>>295 カーネルトリックってネットでも調べられる?
>>297 結構資料はあるが書いてる人間が理解できてるのは少数と思われw
299 :
名無しさん@5周年 :2006/07/04(火) 01:00:07
>>298 え!?書いてる人が理解できてないってこういう分野では普通?w
>>299 Webではカーネルトリックの話になった途端に抽象的表現になるのが多いw
301 :
名無しさん@5周年 :2006/07/04(火) 09:12:40
関数空間の勉強せろ。
302 :
名無しさん@5周年 :2006/07/04(火) 11:14:37
>>301 ベクトルが力の大きさとムキぐらいしか分からない僕でも分かりますか?
303 :
名無しさん@5周年 :2006/07/05(水) 03:04:29
【在日や韓国人の日本強奪計画を阻止せよ!】外国人参政権に反対する主なる理由 以下この法案の主な問題点を挙げます。 ・参政権とは国政や地方を問わず「国民固有の権利」であり、この法案は明らかに憲法十五条に違反している。 ・日本国民は民主国家日本と運命を共にせざるを得ないが、外国籍の者は日本と運命を共にする義務は無い。彼らが本国に帰る事は自由である。 ・参政権は人権問題ではない。外国人は本国の参政権を持っているはず。無いのなら、それは彼らの本国の怠慢でしかない。 ・永住外国人とは、特別永住資格を与えられた韓国・朝鮮籍の方々が殆どを占める。彼らが本国からの干渉を全く受けない、とは言えない。これは内政干渉とも考えられる。 ・この法案を提出しているのは公明党の議員である。公明党とは、ほぼ創価学会員で構成されており、支持母体は創価学会。公明党がこの法案に熱心なのは、創価学会が韓国での布教を有利にする為であるとも言われている。 (金大中元韓国大統領と池田大作SGI名誉会長の間の取り決め) ・この法案に賛成してる政党は、票田を獲得する為に「国民固有の権利」を売ろうとしているのは明らか。民主党は韓国民潭との繋がりを強めている。創価学会の信者には在日朝鮮・韓国人も多い。 ・この法案に賛成してる議員は、個人的な贖罪意識の為に「国民固有の権利」を売ろうとしているように見える。 ・友好を言うのなら、相互主義でなければならない。 ・日本は他国とEUのような強力な結び付きのある同盟関係が有るわけではない。外国人の参政権を認めているのは、EUのような一つの国を目指している国々や、経済的繋がりが強力な北米圏のような特殊な国々のみ。 ・この法案が成立した場合の将来、永住外国人が人権を盾に、被選挙権と国政参政権を求めた場合はどう対処するのか説明が無い。
304 :
名無しさん@5周年 :2006/07/06(木) 12:59:16
誰か1クラスSVMについて教えてくれ・・・ なぜRBFカーネルを使って全ての点と原点と分離するようにSVMやると高密度領域が推定できるんだ? RBFカーネルに対応する写像を使うと外れ点が原点近くにマッピングされるというんだが、なんでそうなるのかわかる人いる?
>>294 たしか、
実数ニューラルネットだと、理屈的には中間層の素子数がNの時には○個のパターンが、
複素ニューラルネットだと、理屈的には中間層の素子数がNの時には×個のパターンが記憶できるって話しは論文等でたまに出てくるね。
限界云々言った所で、「じゃあ実際にそういう風に学習させる方法は何なんだよwプギャー!」なんだよね。
ジミーな改良はとか、問題ごとへのその場しのぎでの微妙な対処法はちょくちょく報告されているけど、
上に書いた通り所詮その例でたまたま上手くいったレベルに過ぎない罠。
でも、たまたま上手く行く事が多いし、仕組みは簡単出しで何気に使われている曲者NN君。
重みの最適化とか考えると、NP困難とかと一緒になっちゃうのかねぇ・・・
306 :
名無しさん@5周年 :2006/07/13(木) 22:15:10
>>304 >なぜRBFカーネルを使って全ての点と原点と分離するようにSVMやると高密度領域が推定できるんだ?
日本語が意味不明
直感的には殆どの点がどこか1つの軸に強く引き寄せられる形になって間がスカスカになるから分離超平面は作りやすくなる
>RBFカーネルに対応する写像を使うと外れ点が原点近くにマッピングされるというんだが、なんでそうなるのかわかる人いる?
特徴空間は訓練ベクトル次元で、各軸は対応する訓練ベクトルとの近さを表す事になる
どの訓練ベクトルにも近くなければ当然原点近くにマッピングされる
ってかSVMはここでいいのか?
別スレほしいね
機械学習総合スレみたいのでもつくる?
309 :
名無しさん@5周年 :2006/07/14(金) 15:47:11
>>233 何の目的で?
Elman-net風のRNNでダメな理由は?
SOMで時系列化させるメリットは?
Voegtlinとか読んだ?
>>308 それ作るとパターン認識分野全部入って、ゴチャゴチャになりそう
312 :
名無しさん@5周年 :2006/07/17(月) 00:10:18
だれかリカレントニューラルネットワークが分かる 参考書やHPなどを教えてください。
313 :
名無しさん@5周年 :2006/07/17(月) 13:44:56
RNNの紹介ならJAISTの人がHP作ってたはず すぐ見つかると思うよ そのページに参考文献もたくさん書いてあるよ
314 :
名無しさん@5周年 :2006/07/19(水) 07:00:41
NN = Neet Network
315 :
名無しさん@5周年 :2006/07/20(木) 20:12:59
>>312 どんな名前のニューラルネットワークでも
多少の違いはあれど同じもの。
真似してみるのもいいが、その先へは進めない。
316は315をすごいと絶賛している。
318 :
名無しさん@5周年 :2006/07/24(月) 23:33:23
SVMとNNの研究を別々の人が行っています。私はNNなのですが、正直SVMよりNNが優れている部分が良く分かりません。 NNの方が実際に用いられているという実績があるところしか見つかりません。 他にはLSI等にする場合に回路規模がNNの方が小さくなると勝手に思っています。 そこで、NNの方が優れている部分を教えてください。
319 :
名無しさん@5周年 :2006/07/25(火) 09:27:06
>> 318 2値以外の結果が必要な場合はSVNでどうするの?
320 :
名無しさん@5周年 :2006/07/25(火) 10:27:24
もうSVMは2値だけのものじゃないよ 回帰すらできる
321 :
名無しさん@5周年 :2006/07/25(火) 10:43:47
>>318 カーネル使ったSVMはNNの部分問題でしかないぞ
シグモイドカーネル使えば3層パーセプトロンそのもの
RBFカーネルを使えばRNN
いったい何を比べたいんだ?
322 :
名無しさん@5周年 :2006/07/25(火) 10:59:47
↑RNNじゃなくてRBFNだね スマソ
>>320 SVMは、多クラス問題も、計算量を気にしなくてもいいくらいに
効率良く解けるようになったの?
324 :
名無しさん@5周年 :2006/07/25(火) 12:44:41
もともと誤差逆伝播とかやるよりは速いだろ
SVMの多クラス問題は Nクラス、データM個ずつのとき、 NM個ずつのデータでN個の判別器 もしくは 2M個ずつのデータでN(N-1)/2個の判別器 を作るんだよね?
326 :
名無しさん@5周年 :2006/07/25(火) 14:24:05
SVMは2値しか出せないわけじゃない 連続値に回帰できるように拡張されてるよ support vector regressionでググるといい もちろん2値分類器の拡張というのも1つのやり方 多値分類ではそれがメジャーな気もする
328 :
名無しさん@5周年 :2006/07/25(火) 19:21:13
リカレントニューラルネットを使わなくても、 学習データを工夫することで時系列データを学習 することができると聞きました。 どのような手法で学習データを加工すればよいのでしょうか?
>>327 それくらいなら、ちょっとプログラムの勉強すれば作れるんじゃない?
331 :
327 :2006/07/26(水) 18:37:48
>>329 そうなのですか。
でも、これは卒研で使うのですが、もう時間が無くて・・・。
学習に必要なものは揃っているのですが、いかんせんテストが出来ません。
検索で色々探しているのですが、意外と無いものなのですね。
もう少し探してみることにします。
お答えありがとうございました。
333 :
名無しさん@5周年 :2006/07/28(金) 16:08:48
>>326 連続値というよりClassificationの延長にしか見えないけど…。
>>331 みんな、他人のコピーして動かして納得して終わり。
あとは適当にあつらえる能力しだいだよw
335 :
名無しさん@5周年 :2006/07/29(土) 11:03:15
>>333 ただ損失関数が区間線形になってるだけで,回帰は回帰だろ?
ニューラルネットといっても、ネットワークの記憶の仕方 学習の仕方はいろいろな方法がありえる、他人の真似をして それを分析して何が面白いんだ? メタ情報のネットワークとニューラルネットワークとの違いとか 理解しているんだろうか?w 情報伝播の抽象化にて構築されるネットワークの基本構成で、先天的 なものと後天的な物という切り分けの概念すらもってない奴も多いかと。
>>336 単なる道具として使いたい人はそんなもんだろw
338 :
名無しさん@5周年 :2006/07/31(月) 17:38:19
>>335 しかし、この連続値を増やせば増やすほど、計算量が増大していく
ことを考えると、現状、Support Vector Regressionは、使えるのが
幾数値かまでに、限定されそうだけどな。
ニューラルの方が計算量が少なくてすみそうだ。
339 :
名無しさん@5周年 :2006/07/31(月) 17:46:30
>>338 SVRとかリッジ回帰とか分かってるか?
連続値は増やすもなにも元々無限だが
340 :
名無しさん@5周年 :2006/07/31(月) 18:01:16
今ってリカレント、フィードフォワード以外に 改良型とか、新型ってあるの?
341 :
名無しさん@5周年 :2006/07/31(月) 18:02:56
フィードバックがあるのをリカレント、 無いのをフィードフォワードって言ってるわけで、 それ以外ってなんじゃそりゃ
342 :
名無しさん@5周年 :2006/07/31(月) 20:18:29
たとえば、以下のような入力u(t)と出力y(t)の時系列データがあったとして、 u(t) y(t) t=0: 1 2 t=1: 3 4 t=2: 2 6 t=3: 5 3 入力ユニット数5の3層NNで学習させる時に、 input={u(t-3), u(t-2), u(t-1), y(t-1), y(t-2)} output={t(y)} のように入力データを構成することで通常の3層NN でも時系列データを学習することができるというようなものです。
343 :
名無しさん@5周年 :2006/07/31(月) 20:19:29
344 :
名無しさん@5周年 :2006/08/01(火) 21:53:53
>>338 ちょっと勘違いしてないか?
うろ覚えだからちょっと間違ってるかもしれないが,問題は↓だよ.
min:
0.5|w|^2 - νnρ + Σξ
s.t:
y - <w,x> < ρ + ξ
<w,x> - y < ρ + ξ
ξ > 0
連続値を増やせば増やすほど・・・の意味がちょっと分からないが
yは普通に(-∞,∞)の値を取れるぞ.
345 :
344 :2006/08/01(火) 23:48:26
間違った. ×0.5|w|^2 - νnρ + Σξ 〇0.5|w|^2 + νnρ + Σξ 幅ρを大きくしてどうするorz
ごめん
>>342 なるほど。
そんな方法があったのか、今度試してみるよ。
バックプロパゲーションで適当にXORやXNORのプログラム作ってみたんですが、 中間層が2個だと、7%くらいの確率で、変な値に収束してしまいます。 ローカルミニマムって奴ですか? 回避の方法は沢山ありそうですが、 もしかしたらプログラムのミスかもしれないので、ちょっと気になってます。 なんとなく麻雀の牌の打ち方を学習させてみたいっす。
>>348 通常の3層NNだと、そのようにXOR問題でもローカルミニマムに陥る事があるよ
350 :
名無しさん@5周年 :2006/09/05(火) 09:32:22
ニューラルネットワークってようは工学的には内挿法でしょ? 物事は明確にきっちり説明しないと誤解をまねき、バブリます。 だから科学者ってだめなんだよね。いいことばっかりいって。
352 :
名無しさん@5周年 :2006/09/05(火) 21:53:21
ニューラルネットを自然言語処理に応用したような研究ってないでしょうか?
めっさある
354 :
名無しさん@5周年 :2006/09/06(水) 10:47:46
>>351 「バブリ」ますの意味は、虚構という意味かな。バブル経済からきており、普通に使われていると思っていたが。
先進的な分野であると恣意的に宣伝され、多くの研究者が殺到する。
しかしばけの皮がはがれると、本質はたいしたことはなく、無駄な時間と金だけを使っていること。
現状だと、ロボット工学、ナノテクがバブル研究っぽいかな。
まぁバブル研究に便乗して、引き際を見定めることも、研究者に必要な資質かも。
ただそういう研究者は、国家としては寄生虫以外の何者でもなく必要ない。
355 :
名無しさん@5周年 :2006/09/06(水) 10:59:39
350の続き NNは内挿法だから、多入力多出力のNNシステムをつくりたければ、 多次元内挿法を用いたほうがシステムの信頼性もあるし、推定(内挿)精度も高い。 最近はRBFを使ったNNシステムもあるようだが、RBFは そもそも内挿法の基底関数であるから、名前を言い換えただけ。 なんかNNシステムを研究している人は、うさんくさいというか 物事の本質から逃避しているようで嫌いだ。
文法解析への応用とかある?
358 :
名無しさん@5周年 :2006/09/08(金) 02:06:25
ニューロコンピューターの定義について聞きたいのですが、検索すると 非ノイマン型コンピューターの一種としているサイトがありました。 ノイマン型のコンピューターはニューラルネットワークのプログラムが あっても「ニューロコンピューター」とは呼ばないのですか?
機械語コードを直接読める人間コンピュータな人でもノイマン型コンピュータとは呼ばんでしょ
俺も質問 昔「純粋人工知能批判」って本が大流行したけど、 結局人工知能は不可能ってことでFA?
362 :
名無しさん@5周年 :2006/09/19(火) 17:34:33
>>348-349 多分ミニマムじゃなくてプラトー
cross entropyでやると、回避できる!(回避というより、すぐ抜ける
363 :
お尋ねします。 :2006/09/25(月) 00:48:35
質問があります。 例えば、ひらがな、かたかな、数字の分類で「あ」が どこに分類されるかを調べるために、ひらがなだけ学習した出力1の階層型ネットワークと カタカナだけ学習した出力1の階層型ネットワークと数字だけ学習した出力1の階層型ネットワーク それぞれに「あ」を通した時に、3つの階層型ネットワークの出力の値の一番大きい出力を採用する方法はなんと呼ばれる 方法なのか教えてください。 おねがいします。
>>360 人間という良いサンプルがありながら、不可能とする意味がわからん。
365 :
名無しさん@5周年 :2006/10/20(金) 02:37:54
ぜひ諸兄に質問させてください。 ニューラルネットワークを使って(たぶん階層型)、 過去の株価のデータを用いて、現在から直近の株価を予測する っていうのをよく目にしますが、 具体的にはどういうメカニズムなんでしょうか? ニューラルネットは、何かデータを入力して出力がでてくる、 その出力が教師データとなるべく一致するようにウェイトと閾値を 自動的に決定させていくってものですよね? ということは、例えば、ある時刻の相場の指標を何個か入力として、 別の時刻の株価にその出力が一致するように対応させていく、 だから建前上、ニューラルネットで未来の(?)予測が行えるってことなんでしょうか? 過去の事例に基づいて新しい入力に対する値を予測していこうってものと解釈して良いんでしょうか。 たまたまある入力がサンプル(過去のデータ)のあるところに来ればそのままその値を出せばよいし、 ないところに来れば近傍の平均値を出せばよい。 そしてその信頼度は、サンプルとの距離で予測できる。 こんな感じのメカニズムなんでしょうか? ※洋書でニューラルネットワークの良い本がありましたら、ぜひ教えてください。
366 :
名無しさん@5周年 :2006/10/20(金) 19:09:18
質問させてください。 僕は学生で3階層型NNの研究をしているのですが、 学習部分をどこか改良して学習スピードを早くして ネタにしようかと思っているのですが 改良はまだ可能だと思いますか?
>>366 3階層NNというだけじゃ解らない
現状で使っているアルゴリズムを挙げて
368 :
名無しさん@5周年 :2006/10/20(金) 20:37:22
>>367 お返事ありがとうございます。
結合荷重の初期値設定はランダム、
学習はバックプロパゲーションです。
>>368 小手先レベルなら可能じゃない?(それすらも自分で考えると苦労するけど。。。)
共役勾配法とかニュートン法みたいな、汎用的に使える抜本的な改良は勉強した頭のいい人じゃないと無理だろうけど
370 :
名無しさん@5周年 :2006/10/24(火) 12:07:12
>>366 イージーな発想だけど、初期値をそこそこ使えるものにするとか。
ロジスティック回帰をブースティングすりゃ3層NNと同じような形になるんじゃね?
やめとき 学習速度だけならもっと早いアルゴリズムがもう有るし そんなんじゃ論文にはならん
NNの本で良いやつないですか? 市川紘さんのはとっても分かりやすくてよかったです。 日本語でも、英語でも何でもいいんですが、 くどいくらいちゃんと説明してある本おねがいします。
373 :
名無しさん@5周年 :2006/11/18(土) 23:29:46
374 :
名無しさん@5周年 :2006/11/25(土) 21:14:41
ポイント気象予測にNNつかた例 なんかない?
>>374 気圧配置と台風なら電気学会の大会で見た記憶がある
376 :
名無しさん@5周年 :2006/12/02(土) 23:40:49
入力→食べ物 重み→食べ物の量 出力→うんこ 閾値→我慢の限界
377 :
名無しさん@5周年 :2006/12/04(月) 12:47:03
中間層はうんこ食べるのか?w
378 :
名無しさん@5周年 :2006/12/10(日) 20:55:01
質問です。 ニューラルネットワークのBPを使っているのですが、 感度分析(解析)ってどうやるのですか?
379 :
名無しさん@5周年 :2006/12/25(月) 02:53:37
3層BPで時系列データを学習させているんですが、 学習の結果を使って予測した値がほとんど一定の値となって吐き出されてしまいます。 シグモイド関数のゲインを低くして線形に近づけても結果は同じでした。 どうしてなんでしょうか? 入力層64、出力は4個です。
コードおかしいかどうか調べるために簡単な問題(例えば2入力1出力の論理論理回路)を解かせてみ 排他的論理和まで解ければ問題ないはずだよ
His judgement cometh and that right soon 男性諸君、結婚すると不幸になる。女の外面は綺麗で清潔で良い人、内面はずるくて汚いため、口も悪くなる 今の女は「どうやって男にたかるか」を必死に考えてる。騙されるな。家事は極めて軽労働になった コンビニやPC、風俗関係も、「嫁いらず」に拍車をかける。今の女は「人生の不良債権」「北朝鮮」「金メッキを施したゴキブリ」 社会的に男女は対等で平等。男が女を養ったり守る必要はない「見切れ!見切り千両!私不幸なの?嘘!泣いてます?演技!情けは不要!つけこまれるぞ」 女は社会的優遇、過剰な法的保護、仕事と家庭の二束のわらじを得て、もはや女尊男卑〜結婚しようとするあなたを彼女は陰で小馬鹿にしている事でしょう〜 ★☆★よほどの事が無い限り結婚は保留し、沢山の女性と自由に恋愛(sex)を楽しめ♪★☆★ 避妊(ピル等)は忘れずにねd(^−^ ★☆★捨てた女は優しい真面目男が結婚(残飯処理)してくれるさw★☆★ それでも結婚する君へ究極の護身法→[夫婦財産契約登記] 夫婦財産契約により契約財産制となり、自分の稼いだ財産はすべて自分の物 離婚時に財産の半分を配偶者に取られない ・弱い者いじめは最低と言いつつ、赤ちゃんを殺す母親(そして無罪判決(笑 ・狙撃は女子のほうが強い。男は、ノイローゼになってやめてしまうが 女は何人殺してもノイローゼにならない。そして、骨盤が安定しているため ・ナチスの拷問で、女の拷問の残虐非道さを見て、拷問をしていた男達もひいたという 拷問しながら楽しそうに笑みをうかべていたそうだ。罪悪感や引け目が無い ・有史以前が女尊男卑の時代だったことを指摘したのは、スイスの学者バッハオーフィン アマゾン女族の女王は、法律を定め、女には従軍させ、男たちには卑しい奴隷の仕事を課した 男児が生まれたら、脚と腕を不自由にして、戦えなくした ・王位継承権が女性にだけあったという事実だけから考えて、古代エジプトでは女性権力が非常に大きかった 男女平等どころか、かなり女性上位の社会であった ・日本国でも卑弥呼が女王 ・昆虫などにいたっては、オスカマキリはメスに食われてしまう 女は虐げられてきた?父系社会など人類の歴史から見ればほんのわずかな期間に過ぎない。むしろ・・・
383 :
379 :2006/12/25(月) 16:24:09
>>380 , 381
お返事ありがとうございます。
2次元XORでも3次元XORでも試してみましたが、両方とも問題なく仕事をしてくれました。
以下のように設定しました。ここおかしいよ、って箇所があったら教えてください。
トレーニングデータはある期間の時系列データ(0.1から0.9までに正規化しました)を
入力ベクトルに、予測したい期間の時系列データを教師ベクトルとして、
ほんとにただの三層BPで学習させています。
シグモイド関数のゲインを高くしてしまうと最終層でのアウトプットが2値的になってしまうので、
それを避けまんべんなく値を吐き出してもらいたいので小さく設定しました。
あと、エラー閾値は定量関係を学習させるからきつめに、過学習ぎりぎりのラインで設定しました。
あ、あと、学習後に、学習された期間のデータを入れてもほとんど一定の値が吐き出されてしまいます。
ただの3層BPでは時系列データの学習は無理なんでしょうか・・
384 :
379 :2006/12/25(月) 19:20:01
あ、あ〜〜!今、便所で思いついたんですけど、 ひょっとして、フィッティングをさせるときって、 中間層のユニットの出力は非線形、出力層のユニットの出力は線形、 としなければならないんですか!?
385 :
名無しさん@5周年 :2006/12/26(火) 12:47:56
386 :
379 :2006/12/26(火) 13:42:02
>>385 出力層をただの線形関数にしたら、一応それらしい答えがでてくるようになりました。
今本で調べてみたのですが、三層で関数近似をさせるときには
出力層を線形にするってのはセオリーだったんですね。。。
387 :
名無しさん@5周年 :2007/02/02(金) 11:02:30
>>386 近似したい関数に依存する(一般的なセオリーではない)
ニューラルネットワークにより統計解析を試してみたいのですが、 安価またはフリーで良いソフトは有りませんか? いわゆる市販のものは高くて手が出ません。とりあえず基本的な機能だけでよいので。
R
391 :
名無しさん@5周年 :2007/02/16(金) 21:22:29
カーネル関数の設計に興味があるんだけど、何か入門編的な参考文献ない?
カーネル関数についての説明はweb上にもpdfで色々有るけど、 設計手法については無いんじゃないか。
普通に微分してもいいけど、極端に変動してしまうから ある部分が問題なんだよね。 そこを改良したものを前にネットで見かけた。 どこだっけ…?たぶん、大学系のサイトだったと思う。。。
394 :
名無しさん@5周年 :2007/05/01(火) 00:03:31
バックプロパゲーションで分類出来なかった問題(出力層への重みがほぼ0になる) がサポートベクターマシンによって解けるようになる、 ということはあるのですか?
395 :
名無しさん@5周年 :2007/05/01(火) 20:58:02
それ変な局所解なんじゃないか 中間層増やすなり何なりすればありえない組合せでも無い限り近似出来ると思うんだが
396 :
394 :2007/05/02(水) 11:09:50
株価の予測をやっているのですが、 3層BPで入力39隠れ60出力1でも出力が定数になってしまいます。 入力は[-1,1]出力は[0.1,0.9]で正規化してあります。
データ量にも依るが流石に規模が小さすぎるだろ
398 :
394 :2007/05/02(水) 22:53:12
>>397 それは入力パラメータを増やせってことですか?
いや隠れ層が少なすぎるんじゃないかと言ってる 出力が一定になるってことはネットワークの表現能力が不足してて データに対応できないってことだろ 但し株価を直接予測するのはかなり無理があるから承知でやってね
すいません
どなたか
>>365 にお答えして頂けませんか?
自分は
>>365 当人ではないのですが・・・
401 :
400 :2007/05/05(土) 00:49:31
あれ 答えて頂けませんか、かな 日本語が不自由なのは目を瞑ってください
>過去の株価のデータを用いて、現在から直近の株価を予測する >っていうのをよく目にしますが これ本当? 個別銘柄の株価予測なんてのは見たことがないんだけど? 入力をうまく数値化できないからほとんど無理だと思うが
403 :
名無しさん@5周年 :2007/05/06(日) 00:03:29
論文とかでよく見るのは、○日後の株価が「上がる」か「下がる」か予測するもの ○○円になるって研究をしている論文は、俺の知ってる限りないなぁ
それも日経平均株価とかで個別銘柄じゃないはず
個別だと儲けるのに適切な銘柄探すのがめんどくさいし その評価関数を議論すると論文いくつも書けちゃうからな
いや,個別銘柄は変化が激しくてうまく学習できないのが理由 つまり変動の原因を全部入力として拾うのが難しい 平均ならマクロな指標だけでかなりカバーできる
でも大和総研がNNを用いた株価の予測をしてるんじゃなかったっけ? 勘違いしてたらごめんよ
NNよりarのパラメータ推定の方がうまくいく スレ違いすまん
今更NN?
412 :
名無しさん@5周年 :2007/05/29(火) 19:39:31
ANNよりLEABRAだね今は
>>412 どの辺がLEABRAなの?
できれば比較してメリット、デメリットを教えてもらえないかな?
>>412 人の特性をうまく再現するLeabraというアルゴリズムは
人間の高次認知機能の研究にとっては重要でしょう。
しかし、もっと高性能な方法はないかという話をしている時に
何の説明もなく持ち出すのはずれているんじゃないでしょうか。
高次認知のコネクショニストモデル
http://www.kyoritsu-pub.co.jp/shinkan/shin0508_01.html はじめに (高次認知のコネクショニストモデル序文)
http://www.kyoritsu-pub.co.jp/shinkan/jobun/jobun09442-5.pdf >第 5章の Munakata & OReilly論文は,人間が変化する環境に柔軟に
>適応するための基本的な認知能力(一般化能力)に焦点を当てて,
>実験的知見とモデルについて説明し,さらに,
>その発達を支える神経科学的基盤についても議論している.
>この論文では,人の一般化能力が不完全であり,
>一般化には,特定の領域における十分な経験と,
>具体的で親近性のある状況が必要であるとしている.
>さらに,人間の一般化の成功と失敗が,
>著者らによる一連のモデルでうまくシミュレートできることを示し,
>十分な経験とアーキテクチャ特性によって,
>適切な一般化を支える抽象的な表象が形成されると主張している.
>理論的には,誤差逆伝播則を神経科学的に妥当性が高い手続きに書き換えた,
>著者らによるアルゴリズム(Leabra:Local,rror-driven and Associative,
>BiologicallyRealistic Algorithm)の有効性が強調されている.
415 :
名無しさん@5周年 :2007/06/15(金) 00:04:48
∧_∧ ∧_∧ ピュ.ー ( ・3・) ( ^^ ) <これからも僕たちを応援して下さいね(^^)。 =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕 = ◎――――――◎ 山崎渉&ぼるじょあ
ド素人の質問で大変申し訳ないが、一つ解説よろしく。 専門はチョム寄りのtheoretical syntaxなんだが、 ここ最近エルマンネットなどからコネクショニズムをかじり始め、 tlearnをいじりながらシミュレーションの基礎を試行錯誤している。 で、やはり数理的にも仕組みを理解してなきゃならんっつーことで、 熊沢先生の「学習とニューラルネットワーク」を読み始めた。 けど、第4章の関数近似能力の話で早速詰まった。 このスレでも何度も話題になってるけど、3層フィードフォワード型なら 2乗可積分の条件を満たす関数を高精度で近似できるという話で、 その数理的証明が載っている。 で、多変数関数をフーリエ級数展開を使って解く前の 1変数の場合の説明なんだけど(P28〜P32くらい)、 とりあえずシグモイド関数を足してインパルス関数を作り、 さらにそうやって間隔ずらしてn個(←hidden unitの数?)作ったインパルス関数を 加えていくと最終的にどんな関数も近似できる、という話はなんとなくわかった。 でも、なんでこのことが3層ニューラルネットの関数近似能力を説明することに 繋がるのかが、わからないんだよね。 インパルス関数作ったり、重み付けをしたり、全部足し合わせたりといった式が、 実際のニューラルネットのどの層の何の動作(inputとかoutputとか)に 対応しているのか、その説明が明示的に書かれていないから。 絶望的に物分り悪くてスマソが、 その辺りの説明を一つよろしく頼みたいです。 ついでに重み付けと標本値の式の解説もしてもらえるとウレシイわ。
ニューラルネットワークの原理、わかってますか?
>
>>417 おれも、417が原理をわかっているか疑問だ
>
>>418 おれも、418が原理をわかっているか疑問だ
ラルネットワークの新しいやつだろ。
80年代からあるが<その解釈
知らんかった
俺が書いたんだが、やっぱり誰でも思い浮かぶんだなw
425 :
名無しさん@5周年 :2007/10/22(月) 00:53:38
C言語で連想記憶の分野で研究してるけどやっぱ現実身がないよな。 まずニューロンの数を配列とかで扱うけど量に限界があるもの。実際の 神経細胞の数なんて億でしょ?比較対象とのスケールのギャップが大きすぎるから どんなモデルが実際の脳に近いとか良いとかが決めにくい。
>>425 それはプログラムの組み方によるだけ。
基礎しか使ってないだけ。いろいろ工夫はできる。
>>426 たとえばどんな工夫?
ググるからキーワードだけでも思いつくだけ教えてくれ
428 :
425 :2007/10/24(水) 01:44:31
>>426 メモリの動的確保?やりかたわかないけどそれでも限界あるのでは?
ニューロ数10000とかだと基本のモデルでも重み配列が[10000][10000]とかに
なるけど・・・(ちなみにdouble型)。動的確保のことはよく分からない。
429 :
名無しさん@5周年 :2007/10/24(水) 13:19:15
>>425 >比較対象とのスケールのギャップが大きすぎるから
>どんなモデルが実際の脳に近いとか良いとかが決めにくい。
Scalingって習わなかった?それと自分ではどういう形のモデルだと実際の
脳の働きに近く出来ると考えてる?結構重要な部分だよこれは。
430 :
名無しさん@5周年 :2007/10/31(水) 05:24:50
MATLABで作ったバックプロパゲーションのパターン認識プログラムってどこかに公開されてないかな? できれば平面グラフのパターンをエクセルの数値データから識別できるやつがいいのですが・・・
自分で作れ 30行も要らない
432 :
名無しさん@5周年 :2007/11/01(木) 21:10:51
糞課長吉野をオメガフルボッコしたら「ぼうやべで、ばぶう」と言ったwwww 糞課長吉野のカス、オメガフルボ時にはオメガ鼻血だしながら「ぼうやべで、ばぶう」とか呻いてたのに さっき電話あって「警察に行くからそのつもりで」だってさwwwwww 吉野47なのに26の俺にオメガフルボされてフランス眼鏡(7万)オメガバリバリされて オメガ便器に顔突っ込まれ「ぼうやべで、ばぶう」とか 呻いててオメガ悲惨wwww死ぬしかないよね糞課長吉野wwwww 糞課長吉野って悲惨なオメガゴミ人間なんだねwwwwwwwww 惨めなオメガ汚物課長吉野オメガワロスwwwwwwwwwww
433 :
: :2007/11/12(月) 01:14:02
ニューラルネットワークの階層型学習って本来は何をするための機能なんですか? これを使うことによって何か研究に役に立ちます?
100層のBPってどうやって求めたらいいの? 微分しまくって鬱なんだけどツールないの? 教えてえらい人
BP以外のモデルってあるの? 漏れがいまニューラルネットワークの独自モデルを実現するため PC上で動く自作モデルの設計を終わろうとしているんだが。。。。。 真似といわれたら困るからねぇ
436 :
435 :2007/12/07(金) 22:41:43
BPとそれ以外、としか認識してないくせに独自モデルかよ・・・
438 :
名無しさん@5周年 :2007/12/17(月) 23:56:13
>>435 モデルだけなら何百(千のオーダーかも知れない)とある.
素人が思いつく程度のものなら多分どんなものでももうあると思う.
すまん,下げ忘れた.
量子コンピュータで人工知能は一瞬で計算可能となります。 量子コンピュータで人工知能は一瞬で計算可能となります。 量子コンピュータで人工知能は一瞬で計算可能となります。 量子コンピュータで人工知能は一瞬で計算可能となります。 量子コンピュータで人工知能は一瞬で計算可能となります。
441 :
名無しさん@5周年 :2007/12/29(土) 03:40:05
442 :
名無しさん@5周年 :2007/12/29(土) 22:04:12
NNってデータ数はどれくらいあればいいかな?
ものによるっつーの
444 :
名無しさん@5周年 :2007/12/29(土) 23:32:58
sine
446 :
名無しさん@5周年 :2007/12/30(日) 22:30:36
保守
447 :
442 :2008/01/01(火) 22:14:02
>>443 関数近似の場合です。NNの発展のためによろしくお願いします。
>>447 NNの収束難しすぎる
結局非線形難しすぎるじゃん
変なアプローチ知ってる人がいたら教えてプリーズ
カオスニューラルってぶっちゃけどうなのよ
カオス振動子使ってるだけで本質は適当な気がしてならん
関数の空間を十分な精度でカバーするだけの数
450 :
名無しさん@5周年 :2008/01/03(木) 23:43:43
線形なら15あれば十分
線形ならNN要らない
452 :
名無しさん@5周年 :2008/04/09(水) 17:15:19
多層パーセプトロンみたいな人工的なやつじゃなくて、 もう少し生物よりの神経回路のシミュレーションについて、 詳しく載ってる文献とか論文知ってる方いませんか?
複素ニューラルネットワークはどんな分野で使うと嬉しい事があるんでしょうか。 研究例や論文があれば教えてください。
454 :
名無しさん@5周年 :2008/04/11(金) 11:29:31
455 :
名無しさん@5周年 :2008/04/11(金) 18:41:34
ごめんなさい。これはアメリカのゲームです。1度やってみてください。 これは、たった3分でできるゲームです。試してみてください。 驚く結果をご覧いただけます。 このゲームを考えた本人は、メールを読んでからたった10分で願い事が かなったそうです。このゲームは、おもしろく、かつ、あっと驚く結果を 貴方にもたらすでしょう。 約束してください。絶対に先を読まず、1行ずつ進む事。たった3分ですから、ためす価値ありです。 まず、ペンと、紙をご用意下さい。 先を読むと、願い事が叶わなくなります。 @まず、1番から、11番まで、縦に数字を書いてください。 A1番と2番の横に好きな3〜7の数字をそれぞれお書き下さい。 B3番と7番の横に知っている人の名前をお書き下さい。(必ず、興味の ある性別名前を書く事。男なら女の人、女なら男の人、ゲイなら同姓の名前をかく) 必ず、1行ずつ進んでください。先を読むと、なにもかもなくなります。 C4,5,6番の横それぞれに、自分の知っている人の名前をお書き下さ い。これは、家族の人でも知り合いや、友人、誰でも結構です。 まだ、先を見てはいけませんよ!! D8、9、10、11番の横に歌のタイトルをお書き下さい。 E最後にお願い事をして下さい。さて、ゲームの解説です。 1)このゲームの事を、2番に書いた数字の人に伝えて下さい。 2)3番に書いた人は貴方の愛する人です。 3)7番に書いた人は好きだけど叶わぬ恋の相手です。 4)4番に書いた人は貴方がとても大切に思う人です。 5)5番に書いた人は貴方の事をとても良く理解してくれる相手です。 6)6番に書いた人は貴方に幸福をもたらしてくれる人です。 7)8番に書いた歌は3番に書いた人を表す歌。 8)9番に書いた歌は7番に書いた人を表す歌。 9)10番に書いた歌は貴方の心の中を表す歌。 10)そして、11番に書いた歌は貴方の人生を表す歌です。 この書き込みをよんでから、1時間以内に10個の掲示板にこの書き込みをコピーして貼って下さい。そうすれば、貴方の願い事は叶うでしょう。 もし、張らなければ、願い事と逆の事が起こるでしょう。とても奇妙ですが、当たってませんか?
456 :
名無しさん@5周年 :2008/06/29(日) 07:56:49
フリーソフトのRでニューラルネットを使用したいのですが、 使用法がりかいできませんでした。 ご存知の方いらっしゃったら、ご教授いただきたく。
457 :
名無しさん@5周年 :2008/06/30(月) 01:25:45
そのレベルならやるだけ無駄 他の事考えな
ここってニューラルネットワークより広い意味でのPDPの話ってアリ? そういうスレ立ってるの見たことないや。
459 :
名無しさん@5周年 :2008/07/18(金) 21:27:59
ニューラルネットワークって、目的変数をこの範囲に入れるためにはどの変数をどれだけ変えればいいか?ということはできますか?
460 :
名無しさん@5周年 :2008/07/19(土) 00:41:48
http://www.tanteifile.com/newswatch/2008/06/05_01/index.html 大槻教授が脳科学者の茂木健一郎をオカルト認定!
大槻氏といえば、スピリチュアルカウンセラーの江原啓之氏の霊視を批判的に
検討する著作「江原スピリチュアルの大嘘を暴く」を先頃刊行した。その大槻
氏が、「THEMIS」6月号の記事「いまやオカルト研究者?!
脳科学者・茂木健一郎へ噴出した「批判」」(同誌HPにも掲載)にコメント
を寄せている。
茂木氏の反論
「私、茂木健一郎と大槻義彦で異なるのは江原のような霊能者・超能力者、
および彼らが見せてくれる霊視・口寄せ・降霊術・オーラ占い・霊感商法
などに対する態度・意見である。茂木健一郎と大槻義彦では科学者という
基本的な立場は同じである。」
>>456 日本の品格を著しく下げている在日チョンや
在日チャンコロの排斥が必要なのは言うまでもないでしょう。
まずは東京から。石原閣下に期待です。
前述した残業代を要求して裁判を起こしたりしているのも、
ほとんどはその手の輩ですしね。
日本の国際競争力を低下させようと工作しているんでしょう。
誤爆?
BPとかの階層型の話が多いけど、自己組織化マップやってる人いますか? 自分は今自己組織化マップの方やってるんですけど、結構面白いです。
今時勉強するならRNNにしとけ SOMやBPじゃ論文は書けん
465 :
名無しさん@5周年 :2008/10/21(火) 15:48:03
ほ
466 :
名無しさん@5周年 :2009/02/18(水) 02:06:14
NNって点推定だけ? 誤差を考慮した区間推定はできる?
初めてこのスレ来ました。 誤差を考慮した信頼区間を求めるというのは、「回帰関数からどれくらいばらつくか(分散)」の話か「パラメータの信頼区間」の話かどちらでしょうか。 前者は、サンプル数が多ければ、誤差逆伝播法が収束したら、サンプル分散を求めればだいたい問題ないと思います。 後者は、ニューロンのパラメータの事後分布を推定することは難しいですが、誤差逆伝播法が収束したら、回帰係数に関してのみ信頼区間を求めることは簡単だと思います。 あと誤差逆伝播法の収束が遅い問題は準ニュートン法などを用いればだいぶましになります。
468 :
名無しさん@5周年 :2009/04/16(木) 19:07:22
469 :
468 :2009/04/17(金) 13:51:09
-‐ '´ ̄ ̄`ヽ、 / /" `ヽ ヽ \ //, '/ ヽハ 、 ヽ 〃 {_{ リ| l.│ i| にゅろーん レ!小lノ `ヽ 从 |、i| ヽ|l ● ● | .|ノ│ ちゅるやさん |ヘ⊃ 、_,、_,⊂⊃j | , |. | /⌒l,、 __, イァト |/ | . | / /::|三/::// ヽ | | | l ヾ∨:::/ ヒ::::彡, |
471 :
名無しさん@5周年 :2009/04/17(金) 21:48:15
一般的に人がプログラムするニューラルネットワークは学習するものであって、 思考するものではない。そのぐらいワカレ!!! 学習したことは、単に情報をコピーするのと同じ。 つまり学習のさせ方が重要であって、学習で何を与えるかが重要ってことだ。 その構築に意味があるわけでNNの仕組みには何も意味はない。 情報データベースの構築を学習によって行うのが今のNNであり、 それは自律思考するモデルではないのは明らかだろ。ワロス。
>>471 えー?学習とコピーっておなじなの?
ニューラルネットワークにおける学習って、結合加重と閾値の変更を指すはずだよね。
この結合加重と閾値の変更の仕方はネットワーク構造に依存する面があるんで
NNの仕組みそのものもとっても重要だよ。
NNの本分はある種のDB構築じゃなくて
同じ構造での違う論理回路の構築だとおもうよ
自律思考っていうのがなにを指してるかわからないけど
教師なしでの学習モデルっていみなら、NNでもできるとおもうよ
Nuwronオブジェクト setShikiiti(x)メソッド
学習はコピーと言えばコピーだけど、汎化を目的にモデルによる表現に圧縮するんだよね。 まんまコピーするのが最近傍法だけどこれは次元が上がると汎化能力が急速に低下しちゃう。 これに対してニューラルネットは次元上がっても割りと性能が良かったりしたから、カーネル法とか混合分布が活発に研究されてきたわけです。
475 :
名無しさん@5周年 :2009/08/28(金) 08:28:41
NN法は因子を人が与えて、重みを与えますが、因子を抽出することって可能でしょうか? また『因子を抽出する』ってNN法の分野では何と呼ばれていますか?特徴量抽出?
単に変数を選択するのは線形回帰の変数選択(モデル選択)で、ニューラルネットはパラメトリックな基底関数を、学習後の基底関数の出力が予測に有効になるように学習します。 なので学習後の基底関数の出力は、予測に有効な変数(特徴量)になってます。理想的には。 特徴量抽出(変数選択)ではBoostingと呼ばれる手法も最近はよく使われてるようです。
477 :
名無しさん@5周年 :2009/09/01(火) 08:33:41
なるほどフーリエ級数を使ったやり方なのですね。 ありがとうございました。人が因子を与えずに、勝手に因子を見つけてくれることはできないですか?
ある程度制限した枠の中でランダムに因子を作りながら、情報量規準やクロスバリデーションを用いて有効な因子を探索する研究もあります。 ただ、因子の作り方を決めると作り出される因子集合が定まるので、有効な因子を自動的に作り出すというのは作り出された因子集合から有効な因子を選択することと等価です。 非常に多くの因子の候補から有限の学習サンプルに対して有効に見える因子を選ぶ場合、たとえ情報量規準やクロスバリデーションを用いたとしても、学習サンプル上で「たまたま」うまくいく因子が選ばれる可能性が出てきてしまいます。 なので、どうしても統計というのはモデリング、すなわち想定する因子集合の制限というのが必要なんです。 先ほど述べた「ある程度制限した枠の中でランダムに因子を作りながら有効な因子を探索する手法」も、「制限した枠」というのが「因子をこういう風に作った集合の中によい因子があるだろう」というモデリングになっています。
479 :
名無しさん@5周年 :2009/09/02(水) 17:57:11
形の輪郭を認識するには、2値化して形状データを、3層ニューラルネットに学習させればよいのは理解しています。 では、軍隊の配置のパターン(軍隊の種類は5種類とする)を理解するには何層必要なのでしょうか? (5種類なので2値化できない場合)
480 :
名無しさん@5周年 :2009/09/03(木) 00:09:19
5値化すればおk
481 :
名無しさん@5周年 :2009/09/03(木) 08:48:53
三角形の図形を(回転や拡大縮小はすでに完了し終えて)認識したときに、その形から言葉『三角形』を出力する方法は可能でしょうか? 入力は画像なので複数ですが、出力は1つです。
482 :
名無しさん@5周年 :2009/09/03(木) 22:59:47
>>481 出力が閾値超えたら発声ルーチン呼ぶのじゃだめなのか?
まさかNNで喋らすわけじゃないよな?
483 :
名無しさん@5周年 :2009/09/04(金) 07:26:20
>>482 ありがとうございます。
複数の入力(図形)に対して、単数の出力(言葉)が可能なのかということと、
図形→言葉とまったく違うものを教師付き学習して『関連付ける』ことが可能なのかを知りたかったのです。
484 :
名無しさん@5周年 :2009/09/15(火) 17:52:17
重回帰分析において、よくにた説明変数を使って分析すると多重共線性が発生しますが、 NNではよく似た入力信号を入れても不具合は発生しないのでしょうか?
線形回帰で多重共線性が問題になるのは、変数同士が似ているほど 一つのサンプルから得られる情報が少なくなるにも関わらず、 学習モデルは変数と同じ数のパラメータを持っているために、 学習サンプルが多くないとおかしな推定になってしまうことです。 同じ理屈はニューラルネットにおいても成り立ちます。 変数を選択せずにモデルの自由度を抑える方法として、 正則化と呼ばれる手法が線形回帰でもニューラルネットでも用いられます。
486 :
名無しさん@5周年 :2009/09/19(土) 00:24:49
ただはたしてANDやORを接続で実現するコネクショニズムが知能に繋がるんだろうか 甚だ疑問のような気もする
でもプリミティブな生物ってルールベースで動いてるように見えるよね。 ルールベースのオバケみたいのが知能、としたら知能につながりそうだけど、意識の有無となると似非科学まっしぐらですね。
意識は有り無しの二値ではなくて、どれくらい有るかの程度問題だと思う。 意識の上限はないけど、意識の最小単位はand一個と考えても構わないと思う。 一般的に、意識の定義が倫理・道徳・宗教的な思想に偏りすぎ。 健全なヒトの意識レベル以上を意識と定義するのは曖昧で傲慢すぎると思う。 では意識の下限はどこだよ?って話なんだが。
490 :
名無しさん@5周年 :2009/09/23(水) 15:43:36
知能や心は、あくまでも第三者からみてのこと。 実は人間は単なる法則に基づいて動いているだけ。 その法則が環境によって学習され人によって個々にルールが若干違い、複雑なだけ。
491 :
名無しさん@5周年 :2009/09/23(水) 18:21:15
問題になってるのはそんな誰でも知ってるような大づかみの話じゃなく どうやってその個別の違いが出来るようなルール作りをしているかの 処理の流れでしょ
492 :
名無しさん@5周年 :2009/10/07(水) 00:09:57
8x8の0と1で表現されたA-Zの文字認識する場合だと 入力層64個(8x8のパターン)x中間層(30ぐらい?)x出力層(26文字種を0-1で返す) みたいな理解でOK?宿題やらないといけないのですが中間層の数はもう 感覚で決めるしかないのかなぁ?
適切な中間層のユニット数は学習データの数にもよるし感覚的にも決めるのは難しいので、クロスバリデーションで決めたら?
494 :
名無しさん@5周年 :2009/10/19(月) 16:08:12
>>468 です
お勉強、すすんでません。
パーセプトロンとやらからはじめようと思ったのですが
理解できない部分があって、助けてくれるとうれしいです。
加重や閾値を変更決定するのに
結果を観測しないといけないじゃないですか
ニューロンに結果を受け取るところって無いですよね
だとすると、外部の何かがニューロンに指示を出してるってことでしょうかね?
それとも、ニューロンそのものが、何らかの方法で
結果の賛否を受け取る(あるいは判断)できるってことでしょうか?
>>468 のモデルだと、この当たりがさっぱりですね
このへん解説してるサイトか本でもいいので、教えてください。
495 :
名無しさん@5周年 :2009/10/20(火) 00:29:03
>>494 まったくの想像で書くんだけど
シナプスが出力側のニューロンなりから何か信号をもらうのかなという気がする
神経伝達物質の量とか種類とか、再利用される量が違うとか
496 :
468 :2009/10/24(土) 06:16:38
まぁ、そんなに簡単に、答えがもらえるとは考えてませんが 生物学的なモデルでなくてもいいんです オレの考え書きますんで採点してくれるだけでもいいです。 いま読んでる本によると、ニューロンに対する入力部分は 樹状突起の部分のみってことなんで、シナプスから情報が逆流してるわけではないようです 学習を行うときには、結果が観測できないと、自分が環境に適応してるかがわからない 何らかのほうほうで、ニューロンにパラメータの変更か維持を伝えないといけない パーセプトロン的な方法だと、ニューロンそのものが変更OR維持を判断してるのではなく それ以外に、ニューロンを制御する存在が必要な気がします。 特に単純パーセプトロンの場合だと結果の取得に教師信号・・・つまり答えを知っている必要があるようです。 このとき、学習を制御するものはニューロンに入力された値も監視してなくてはいけない 解決策としては・・・ 1、ニューロンに教師信号を入力できる口を設ける 2、全部を監視してるシステムをつくる ってあたりだとおもう。 オレ的には1がいいんじゃないかと考える。
497 :
468 :2009/10/24(土) 06:26:58
もちろん、単純パーセプトロンだけじゃ、できることが限られすぎておもしろくないので 多層パーセプトロンとかもやってみたいし 自己組織化マップとかもやってみたい ニューラルネットワークとは方向性が違うようだけど 強化学習やら遺伝的アルゴリズムにも興味が有るので そっちとごちゃ混ぜにできたら面白いとも考えてる 今のところの、オレの学習予定としては 単純パーセプトロンの実装→多層パーセプトロンの実装→なんか教師無し学習モデルの実装 みたいな感じでかんがえてる なんか、初心者向けの教師無し学習モデルがあったら、名前だけでも教えてください
498 :
468 :2009/10/24(土) 20:07:41
499 :
468 :2009/10/28(水) 21:57:00
多層パーセプトロンを実装してみた。 ソースとドキュメントあげておきます
500 :
名無しさん@5周年 :2009/10/29(木) 14:17:40
授業で教師あり学習について調べなければいけないのですがなかなか例が見つかりません。 教師あり学習とは具体的にどんな例がありますか。 ググっても見つかりませんでした。
501 :
468 :2009/10/29(木) 19:32:24
教師あり学習は入力に対する正解を推定するタスクで、 たとえば最小二乗法による関数近似(正解の関数を推定)とか、 SVMによる判別(正解の判別を推定)が上げられる。 教師なし学習の代表例はちょっと言葉が難しいかもしれないけど分布推定。 簡単な例はデータの平均と分散を求めて正規分布をあてはめるのが分布推定。 低次元化とか可視化も教師なし学習。 自己組織化マップは低次元多様体上の少数のベクトル(量子化ベクトル)で分布を近似するもの。 多層パーセプトロンも自己組織化マップも、もはやだいぶ古い技術だけど、 遊びながら勉強する分にはいいかも。
教師あり学習の具体例は、手書き文字認識が有名じゃない? 実際の製品で使われている手書き文字認識では学習は使われてないかもだけど、 教師あり学習のタスクとしてよく使われている気がする。
今自己組織化マップ勉強してるけど、成長バッチSOMのアルゴリズムが分からなくて詰み中 どうしようかねぇ
505 :
505 :2009/12/09(水) 14:55:41
ニューラルネットで学習が終わった後、 それぞれの重みを見てこの要素が分類に大きく効いてる、 などを見る基準・方法はあるのでしょうか。 中間層が少なければ、なんとなく分かる気もしますが 多くなってくるともうどの繋がりを見ればいいのやら分からなくなってます。
適当に重み減衰かけて学習すればいらない重みは小さくなるので、 中間ユニットから出力への重みを見ればどのユニットが 利いているかわかりますよ。
507 :
505 :2009/12/09(水) 22:46:16
>506 ありがとうございます。 中間ユニットから出力への重みが、正と負のものがあり、 入力層からその両方の中間ユニットへ、ある程度の重みで繋がっていたりするものの 場合の解釈に困っているのですが、お分かりになりますでしょうか。 日本語が下手だ…
重み減衰かけてるなら、重要なのは絶対値が大きいリンクです。 ただ、重み減衰のパラメータもちゃんと最適化する必要があります。
509 :
名無しさん@5周年 :2010/02/18(木) 14:52:28
>>504 バッチマップに成長SOMの技法を適用しただけ
バッチマップは
・入力ベクトルをいくつか用意する
・ノードiにおいて,最整合ノードがiとなる入力ベクトルのリストを作る
・リストの総平均を新しい参照ベクトルにする(近傍関数で重み付けはする)
ってのを何回か繰り返すだけ
成長SOMは詳しくはわからん
誰か補足よろ
510 :
名無しさん@5周年 :2010/06/16(水) 03:06:14
ところで、bluebrainって何のシミュレーションしてんだ?
512 :
名無しさん@5周年 :
2010/06/16(水) 23:11:38 それを見ての質問なんだが英語に不自由なので概要を教えてくれ neocortex columnは脳のどの部分で、どんな意義があるのかとか あと、何のモデルでシミュレーションしてんだ