【AIまだなの?】自律増殖するオブジェクトpart2
584 :
メカ名無しさん:
585 :
メカ名無しさん:2009/04/06(月) 09:52:57 ID:807sfpX4
スバラシイ!スバラシイ!
586 :
メカ名無しさん:2009/04/06(月) 22:28:09 ID:C7hxdXzT
なんだかな〜知ってる言葉を全部並べました的な感じがするよ。
ただニューロンレベルから考えている点は面白いな。
でもこれ実装できんの?と思ってしまう。
とりあえずスバラシイスバラシイと連呼して粗探しするわ。
587 :
メカ名無しさん:2009/04/07(火) 01:17:35 ID:J2/xGyh/
特許って出願だけなら誰でもできるからなぁ。
審査とおらないと全く何の意味も無い。
審査請求はしてるのか?
589 :
メカ名無しさん:2009/04/08(水) 10:20:11 ID:eOZGDmQP
前スレの発言とかパクってるから審査請求することに意味はない
590 :
メカ名無しさん:2009/04/08(水) 10:23:29 ID:eOZGDmQP
所謂、防衛特許ってやつだな
でも既出だから無効請求だせば取り消されるね
パクリの運命ははかない
592 :
メカ名無しさん:2009/04/08(水) 16:55:21 ID:2Eiaq+Yj
認知科学的な機能ブロック図を示して、これで人工知能が実現できるって
言ってるあたりかなり痛いというか能天気というか。。。w
593 :
メカ名無しさん:2009/04/08(水) 17:58:40 ID:5WegKDUV
そうだよな
霊が宿らなきゃ実現は無理
色々公知にしておくこと自体は否定しない。
595 :
メカ名無しさん:2009/04/11(土) 01:26:34 ID:gyqaTxT4
でもお金になりそうな頃を見計らって無効にしといたほうが良いね
このスレって、素人(しかも文系)しかいないのか?
オカ系はよく出てくるのがロボ板の常識。
アニメの話も良くしてるし、日本人にとってロボットとかAIってホント画面か頭の中だけのもんなんだろうな。
つまんね。
取り合えずCNCでCNC作る人も居るんだし、そういう自作可能なCNCにそれなりのマイコンとLANを積んでネット受注を受け取りながら、
自分と同じCNCが作れるキットを生産してオークションにて販売しちゃうCNCとかそれなりにAIしてないか?
もちろん販売価格と生産コストを考えて、利益を上げるようなのが良いと思うが、この辺はゲームでもやってる事だしそれなりのスクリプトでいけるのではないかとは思うんだけど…。
面白そうだけど、そういう事をするスペースも知恵も先立つ物も無い。
>>597 作ったものは作ったもの、まず作ればいいのに。
作らないのに作る作る詐欺は辞めろ。
オカ系のAIは生まれるものであって、作るものではない。
そして芽吹かせ育成し、成長によって形を完成するものである。
599 :
メカ名無しさん:2009/04/13(月) 21:23:57 ID:PgkmqxJb
ただやっぱただのおたで作れない奴が圧倒的に多いよな
>598
オカ板に帰りなさい。
ここは自己増殖するオブジェクトのスレだから。
自動車つくるのにIQ1000つかうだろ。
オカルトに頼らないと、何も想像すらできないって
進歩の欠片もないな。
>>595 大丈夫。
どう考えても実現までに特許期限すぎるから
審査請求して維持する価値ない。
604 :
メカ名無しさん:2009/04/19(日) 17:54:46 ID:iABGMwr0
書くだけだからそれほど時間かからんだろ
2,3日有れば完成って感じじゃないかな
どういう根拠で?w
できるというならどういう方針で作るのか言ってみろよ。
606 :
メカ名無しさん:2009/04/19(日) 18:02:04 ID:iABGMwr0
おいおい
特許で仕組みまで書いてあって
後は書くだけだぞ
挙動内容はともかく中学生程度でもできる作業だろ
607 :
メカ名無しさん:2009/04/19(日) 18:04:06 ID:iABGMwr0
てかオリジナルのAIの最初のやつ書いたとき
俺も中学生ぐらいだったから
そんな難しい問題じゃないんだが
AIって、ただの探索プログラムのことじゃないだろうな
609 :
メカ名無しさん:2009/04/19(日) 18:49:17 ID:iABGMwr0
定義どおりのAIな
>>609 定義って?
俺はちゃんと定義されたものなんて知らないぞ。
611 :
メカ名無しさん:2009/04/19(日) 20:04:58 ID:iABGMwr0
その程度知らんで
何故出来ないとわかる
612 :
メカ名無しさん:2009/04/19(日) 20:10:57 ID:iABGMwr0
こうして相手をするのすら無駄な相手であることが良くわかった
いや、だから、君は一体何を作ったって?w ID:iABGMwr0
まず、定義について意識を共有しようや。
>>609 君がAIの定義だと思うものを、リンクなり文章にするなりして教えてくれるかな?
615 :
メカ名無しさん:2009/04/19(日) 23:05:27 ID:iABGMwr0
まずじゃなく知った上で参加しろ
お休み
無駄な時間をありがとう
>>615 いや、俺はAIについていろんな定義の仕方を知っているが、
君がそのどれか一つを唯一の定義であるかのように
知ったかぶっているように見えたんだよ。
そして、君自身が一体何を作ったのか、何を作ることができると言っているのか、
どういう仕組みで作れると言っているのか、全くはっきりしない。
要するに知ったかぶりじゃないの?
と釣られてみる
617 :
メカ名無しさん:2009/04/20(月) 00:39:33 ID:WnC5XdgL
いいんじゃないか
作れもしない知りもしないやついちいち相手にしなくても
>>617 狭い意味でのAIなら作った奴は捨てるほどいるだろ、
そのDQNが言う程度のものもAIと言うのは間違いない。
高度な抽象観念な、そして高次の情報を扱うものではないことは明らか
である。
一般で望まれている創作物から想像されるAIとは違うんだよな。
その創作物でいうAIとは、自我の類をもち、自己認識し他の大きな
情報処理系と連動し協調することもできる高性能のものな。
また「心」の類の機能をもち、人間が普通に行う思考という処理系も
できる類だろう。
設計どおり動く手順式のロボット制御と同等なAIレベルを作ったとか
作れたとか言う奴が捨てるほどいるのは間違いない。
まあ簡単に言えば人工無脳の類だろう。論理的秩序の中で動く類ってこと。
人間が持っているような知性は、この論理性を越えた超論理、即ち超だから
勘違いするのがいるが、それは「非」でもある。「非論理」それはデタラメ
トンデモの類ができる知能ということ。
まあ遊具には必要な機能かもしれんが、道具にはイラネーな。
ここでAI作ったとか言ってる奴は、どうせツリー探索程度のものしか作ってないんだろ。
んなもんAIじゃねーよw
このスレでAIという意味なら?
@生命現象として自然なAIである。
A自我、魂をを持つAIである。
B感情、心を持つAIである。
Cプログラムしなくても自動で思考し学び発想する。
D知的に優秀ではない。
おまいら、適当に項目挙げてみろよ。
シンプルな機能仕様。
初めて鏡を見せると、写っているものが自分であることを確認する動作をするAI。
もちろん2次元仮想空間内でいい。要するに人工意識(自我)。
チンパンジーには出来て猫には出来ないこと。言語も不要。
猫にも意識はあるが、このレベルが出来れば、ああ、自我があるんだと認めてもらえそうジャン。
この仕様を機能分割してつめていけば、割合簡単に出来ると思う。どこかで詰まるかしれんが。
・・・もうお前はがんばった
だからオカルト板に帰れ
住人が心配してるぞ
ここは理系カテゴリのロボット板です。
理論・技術の話ができない奴は出て行ってください
624 :
メカ名無しさん:2009/04/22(水) 01:54:09 ID:NszTnxp3
ツリー探索ってAIに入らないだろ
>>624 狭義のAIと呼んだりすることもある。
コンピュータ囲碁関連の論文でもAIと呼んでいることがある。
626 :
メカ名無しさん:2009/04/22(水) 02:12:33 ID:NszTnxp3
アルゴリズム集に載ってる程度で
AI関連の本でも導入部には載るけどそれをAIとして扱っては居ないよね
多分読み間違えだと思うよ
あと感情や魂の部分も分けるべきだろうな
インテリジェンスとは相反する部分だしね
擬似感情ならファービー、プリモプエル、アイボで実現してるけど
あれをAIとは呼ばんしね
>>626 お前は世間知らずの融通の効かん奴だとよく言われないか?
628 :
メカ名無しさん:2009/04/22(水) 02:26:30 ID:NszTnxp3
いや世間知ってるし物を知ってるから言えるんだ
世間知らずでなけりゃ、そう真っ向から質問に答えたりしないよw
630 :
メカ名無しさん:2009/04/22(水) 02:31:21 ID:NszTnxp3
それより寝ようぜ
世間知ってれば明日仕事があるはずだし
>>626 >あと感情や魂の部分も分けるべきだろうな
そういう表現は止めたほうがいい、科学万能主義者の総合失調症が集まる
まあ置き換えるなら、
>あと心や自我の部分も分けるべきだろうな
まあこのぐらいなら問題ないだろ。
↑鏡みて発言したほうが(ry
おまえみたいのが一番ムカツクんだよな。
イライラとかムカツクなら、こなければいいのに
発言しなければいいのに。
まあ、イライラしたい奴が集まってくるのが2chだからしかたねぇかw
素人は10年ROMってろ
それが嫌ならVIPにいけ
636 :
メカ名無しさん:2009/04/25(土) 19:38:28 ID:YO+fbh9l
わかんねえなら書かなくてよし
邪魔だけしたい奴が大多数だからな
だったら
> 自立増殖するオブジェクト
に関する話をしろよ。
どこからAIの話が出てくるんだ?
AI関係ねーだろ
だいたい、ちょっとでも学識がある奴だったらAIなんて誤解を招くような単語はつかわねーぞ?
「AI」って書いた時点で素人丸出しなわけだよ。
639 :
メカ名無しさん:2009/04/26(日) 00:31:56 ID:CZXIo6N0
素人乙
640 :
メカ名無しさん:2009/04/26(日) 00:33:25 ID:CZXIo6N0
自爆してりゃ世話無いよな
人の学識がないとか素人とか言って切って捨てるやつは素人。
専門家から見れば世の中ほとんど全員が自分らより素人だからな。
自分にとって面白い意味ある話をしない人を相手にしたくないというのは
自分が学びたいばっかりで人に伝える側では無いということ。
643 :
メカ名無しさん:2009/04/28(火) 15:12:07 ID:LwyitbwV
たぶんな
漫画の知識しか無い奴と見た
AIという言葉に変な幻想を抱いてる奴は大学生未満 これ常識
645 :
メカ名無しさん:2009/04/28(火) 16:49:22 ID:LsDUrOzC
>642
なんで?
647 :
メカ名無しさん:2009/04/28(火) 18:59:34 ID:LwyitbwV
要するに書いてある内容からも
かなり幼稚な人間でしかないんだよな
AIの話は終わりにしよう。いい加減AIはスレ違い。哲学板かオカルト板かSF板でも行ってこい。
649 :
メカ名無しさん:2009/04/28(火) 22:45:27 ID:LwyitbwV
AIは良いんだけど
漫画とごっちゃにするのはやめてね
>>649 おまえが馬鹿。
この板は、その漫画とごっちゃな奴が書き込みをする板で。
そこで発現している時点で同類ってことさ。
えっと、私はこのスレの
>>1ですが、技術的な話がしたいと思っています。
漫画みたいな妄想をすることを目的としてスレを立てた訳ではありませんので、
もしそのような目的がおありでしたら別の板に行ってください。
654 :
1:2009/04/29(水) 13:37:17 ID:Y7PI0cmK
ID:fvxJDr/eは荒らしなので非表示IDに登録されることをおすすめします
>>653 そもそも1を建てたと嘘を言い張る時点で、嵐はお前だw
何故それが分るか、言うまでもない。
自作自演のスレみたいなのが笑えるな
ロボネタが無い発言などクズ同然
658 :
メカ名無しさん:2009/05/02(土) 22:00:09 ID:4SXwMQ5v
一言で言うと幼稚だよお前
660 :
メカ名無しさん:2009/05/03(日) 10:19:12 ID:/y9o/M4P
その幼稚さは普段漫画しか読まないからだろうね
そうなんだよな658って(ry
662 :
メカ名無しさん:2009/05/04(月) 13:23:27 ID:ricrQWtX
反応が小学生だな
なんであげるの?ばかなの?
あげるのは必死な厨の基本だろvip君じゃねぇの?
自律する箱を作ってもXBOX360
なにもソフトを入れなければ駄箱。
まるで君のようだ、空っぽの箱を作ったが、それが機能すると思い込み
必死な君の表情がみえてくる。
666 :
メカ名無しさん:2009/05/13(水) 00:07:33 ID:cOGCPml+
まあ
やれない
やる力も無い
じゃあ話にもならんけどな
まずは不可能であることが証明できて無い上に実在するものがあるんだから
否定するのは変だよな
否定以前に肯定する何かすら提示できないDQNが沸いているスレって
ここですか?
669 :
メカ名無しさん:2009/05/14(木) 15:52:50 ID:Os7/szov
否定できないから肯定できるんじゃね
すくなくともここは妄想する板じゃないことは間違いないな。
SF板でも哲学板でもオカルト板でもあるは、結果だせねぇやつは
いらねー。
671 :
メカ名無しさん:2009/05/14(木) 23:48:11 ID:Os7/szov
ぷっ
結局否定の証明できないのか
漫画頭じゃしょうがないか
お前ら レベルの低い話してんなよ
もっと技術的な話をしろ
誰もお前らのオナニー見たいわけじゃない
673 :
メカ名無しさん:2009/05/15(金) 08:09:27 ID:syjjR+uZ
674 :
メカ名無しさん:2009/05/15(金) 16:07:59 ID:cNkkb67n
ああ
これで日常的に日本語を使う人じゃないことが分かったな
ブラウザの言語設定日本にしないとな
>>674 韓国人なら最初からそういえよ、ハゲ。クズ。おまえだw
676 :
メカ名無しさん:2009/05/16(土) 02:14:12 ID:vzJVt73I
あーあー
どんどん崩れてくね
このスレってウザイんだよ、上げるな消防じゃねぇんだから
おとなしくしておけ。
678 :
メカ名無しさん:2009/05/17(日) 13:51:16 ID:WOK7ePxV
あーあ
もう懇願かよ
679 :
最低王子:2009/05/17(日) 23:48:07 ID:0v2simz8
未来技術板もこの板も駄目になったな。
失望した。
個人的には、22歳以下の人々が書き込みを続ける限りは、もう駄目だな。
学生は思い込みが激しいからな、
自分で語れないのに、どこかの知識ばかりにすがる。
コピーした知識は理解しているとはいえない、自分で表現できて
それを小学生にでも分るように説明できてこそ、理解している。
結局ウンコ君は結果を出せないクチだけのクズ
682 :
メカ名無しさん:2009/05/21(木) 17:22:25 ID:hg+w4bIW
君も出して無いけどね
>>682 またウンコ君?
君の限界はここにある。限界を超えられないのは君自身が壁を作っているだけの
話さ。
684 :
メカ名無しさん:2009/06/03(水) 15:32:21 ID:tM20GUcT
本題に入れないところに
弱さを感じるね
685 :
メカ名無しさん:2009/06/03(水) 15:43:59 ID:7qcwSVbL
オブジェクト指向というか小さなモジュールを自動生成して流動的なシステムを構築するのかな。破綻的なシステムになりそうだけど。淘汰と進化もさじ加減できるのかそのへんを知りたいな。
>>685 流動体の全体の動きという原理は解明されても、そこに流れる1つ1つの
仕組みは解明されないのが科学というもの。
科学的手法ではシミュレーションすることで模索するしかない、
だがそのシミュレーションができていまだに進まないというのが現実。
論だけでできないからシミュレーションをするわけね。
現実的に構築したもので、流動的なシステム、たとえば社会現象の
ような複雑なものは科学ではないとされている。
複雑系は科学ではないと、教科書に載っている事実を認めるべき。
有名な複雑系とはカオスやフラクタルのこと。フラクタルに反証論理
など一切通用しない。
687 :
メカ名無しさん:2009/06/05(金) 15:18:28 ID:A9VeXfXP
まあ分かんないから非科学ってしてるのが2chクオリティーっぽいな
ただ殆どの科学は実は根本的なことは何も分かっちゃいないんだけどな
>>687 科学厨の多くは、科学は万能で遠い未来は全ての非科学も科学で
説明できると主張している。それは科学では表せないことは無いという
科学万能主義という考え方というやつな。
689 :
メカ名無しさん:2009/06/06(土) 00:29:32 ID:BUPJS8iq
と言うか科学を非科学と言う人の多くは科学知らない事が多いよね
殆どが学校で落ちこぼれてる人みたい
690 :
メカ名無しさん:2009/06/06(土) 00:33:44 ID:BUPJS8iq
こないだなんか俺は論理的だといいつつ心理学は似非科学だと言う人見かけたけど
中学校で習う数学程度のことが分からなかったりしてたしね
よくよくよそのスレで見たら大学の通信教育で経済学んでる人だった
まあそう言う人2chには多いみたいだね
>と言うか科学を非科学と言う人の多くは科学知らない事が多いよね
>殆どが学校で落ちこぼれてる人みたい
これを解釈すれば、この人が俺は全ての科学を知っているといっている
ことに気がつくはず。釣られるなよw
まず科学について説明できないやつが言うことじゃないことは
分っているよな?
君がそれを説明できないぐらいは誰でも読み取れるわけ。
692 :
メカ名無しさん:2009/06/06(土) 15:49:47 ID:loIjdiWA
誰も知らないが正しいんだけどね
君も含めて
科学ならちゃんとした定義があるよ。692はそれを知らないだけ。
694 :
メカ名無しさん:2009/06/07(日) 01:37:06 ID:VCqA1MbL
似非科学語る人がよく最後っ屁に放つ言葉だね
毎回ご苦労
固まっちゃったみたいね
そりゃそうだ
451 名前:オーバーテクナナシー 投稿日:2009/07/10(金) 20:19:03 hL1Po144
感情が一番の問題だな。
利益不利益をプラスマイナスで内部処理すると
満足か不満か、なんてのは現状のプラスマイナスの度合い。
喜びと悲しみは、プラスマイナス方向への加速度。
好き嫌いは、対物へのプラスマイナス度判定。
憧れと恐怖は、巨大なプラスとマイナスに対する感情。
ここまではいい。問題はここから。
対人に対する、嫉妬や愛ならまだなんとかプラスマイナスで処理できるが
笑い・恥じらいなんかをどう処理すべきかだ。
誰かがギャグ言って笑うのって、何がおかしいんだ?なんで笑うんだ?
恥じらいは防御本能なのか?でも動物には恥じらいなんて無いぞ?
動物の感情的動作なら、まだなんとかなりそうだが、人間の感情は複雑すぎるよ。
作らなければならないものを分類してみる
推論
知識データベース
感情
欲求
上二つとした二つをセットで考えるとして、下側はロボットっぽくないから後回しにしておく。
で、上二つだが、推論には知識が要るが、知識には推論がいらない。(厳密的には必要だけど)
なので、まずは知識のデータベースを、どのように構築していくかが必要と考えてみる。
単純な話、知識データーベースに一番必要なのは関連図。
例えば、リンゴを聞いて何を想像するか?
赤いという言葉を思いついたとしても、リンゴ→赤いだけでは
データーベースは成り立たない。
主(リンゴ) 従(赤い) 関連(色)のように、どんな関連があるかを示さないといけない。
主と従のように二つの単語の区別が必要なのは、逆の関連だと成り立たないから。
赤いものが全部リンゴとは限らない。そして青いリンゴがある事を
新しく知った時は、リンゴ・青・色をデータベースへ新規登録する。
この方法なら、例えば
信号・赤・色、信号・黄・色、信号・青・色、の三つをデーターベースに登録しておけば
信号と色を検索し、赤、黄、青の三色を導き出すことが可能になる。
このように、主と従と関連を表にしてしまえば、エクセルのような表計算ソフトでも
知識データベースを構築することが可能になると思われる。
>>697 じゃ僕は推論機能から構築してみよう。もちろんルールという知識が必要になる。
推論に必要な知識というアプローチでまず知識DBを構築する。
まずはどういう推論をさせるか考える。ぐぐった。演繹推論:定言的三段論法。いろいろあるみたい。
大前提「すべての人間は死ぬ」、小前提「ソクラテスは人間である」、結論「ゆえにソクラテスは死ぬ」
形態素解析を行い関連を付ける。
すべて-の-人間 人間-は-死ぬ ソクラテス-は-死ぬ
「ソクラテス-は-死ぬ?」でルールを検索して答えられれば成功。一歩目は簡単そうだ。
色々検索してみる。Prologという言語を見つける。
ttp://bach.istc.kobe-u.ac.jp/prolog/intro/ すでに推論と知識用の言語あるようだ。
しかし自分の望むものは、エクセル程度の表計算ソフトでも
実行可能な推論エンジンなので、Prologは参考程度にしておく。
で、続き。知識データベースと推論には、ポインタの概念が必要だと考える。
例としてカギを探して扉を開けて部屋に入る状況を想定する。この時
1(部屋・入る・行動)
2(扉・開ける・行動)
3(ロック・開く・行動)
4(カギ・所持する・行動)
5(カギ・探す・行動)
のような、複数段階の条件が必要になるが、推論のためにこれを記述しないといけない。
これをポインタという概念で考える。1の行動をするには2の条件が必要なので、それを
(1・2・条件)と記述する。同様に以下を記述するとして並べていくと
A(1・2・条件)
B(2・3・条件)
C(3・4・条件)
D(4・5・条件)
となる。このような考え方で1〜5とA〜Dのデータベースを使用し
部屋に入るための推論が可能になると思われる。
限定条件というものを考えてみる
リンゴ・赤・色というデーターがあるが、このリンゴという単語は、リンゴの木ではなく
リンゴの実を示している単語である。これはポインタを利用して
A(リンゴ・赤・色)
B(リンゴ・リンゴの実・省略)
C(A・B・限定条件)
のように、リンゴを示している単語が、リンゴの実の省略である事を説明しておかないといけない。
さらにリンゴの実が熟している状態でないと赤くないので
D(リンゴの実・熟す・状態)
E(C・D・限定条件)
も注釈しておかないといけない。
しかし、これでは(リンゴ・赤・色)のデーター部分でどんな条件があることがわからない。
ここは逆検索ができるようなデーター構造を考えておかないといけないだろう。
推論のための一時記憶場所について
例として(日本・東京・首都)というデーターがあったとする。
この時「ニッポンの首都は?」という問題に答えられるだろうか?
残念だが無理である。「日本」という文字と「ニッポン」という文字が
同じ内容を意味することはデータベースには無いからだ。
(日本・ニッポン・同義語)というデータが推論には必要になる。
ただし、推論する時(ニッポン・?・首都)で情報が無い事を確認した後
ニッポンの部分を日本に置き換えて再検索しないといけない。
この時に必要になってくるのが一時記憶場所である。
(ニッポン・?同義語)と(?・ニッポン・同義語)を検索し
結果を一時的に記憶した後、(ニッポン・?・首都)の「ニッポン」の部分を
その単語に置き換えて再検索する。このような動作をするために必要なのだ。
例は単純な置換検索で、一時記憶が無くてもどうにかできる類かもしれなかったが
これよりはるかに複雑な推論をしなくてはならない場合は十分にありうるので
情報を操作する一時記憶場所は必須となるだろう。
質問の仕様について
こちらから推論エンジンに質問し、答えをもらおうとする場合
その書式も決めておかないといけないだろう。
*イエス、ノーで答えるタイプ
AのBはCか?のように質問し、イエスとノーで答えられるもの。
ただし答え方は、2通りではなく5通り。
(イエス・ノー・どちらでもない・どちらでもある・わからない)
どちらでもない、はありえない答えだが、例外処理が発生した時のためにあったほうがよい。
*相関欠如の質問
日本の首都は?首都が東京なのは?日本と東京の関係は?
のように、3つ一組のデーターの、欠けている部分を答えるためのもの。
*該当するものはいくつある?
信号機の色はいくつ?のように数を答えるもの。ただし、限定条件をつけておかないと
正しい答えが出てこない場合が多い。歩行者用の信号なら2色と答えるだろうし
車両用でも赤・黄・青・緑の4色と答える可能性がある。
推論エンジンが発展すれば、ある事象が起こる確率を答えさせたり
ある事の原因を可能性順に出させたりする事ができるようになるだろうが
今の時点では無理なのでとりあえず保留としておく。
推論のためのルール記述
一時記憶の説明の時、同義語の場合には単語の置換をさせていたが
こういった推論方法も表の一部に組み込み、追加できるようにすべきだろう。
(A・B・C)で(A・a・同義)なら(a・B・C)に変換可能。というものの他に
(A<B)で(B<C)なら(A<C)に変換可能、といった大小関係や時間順の記述
類するものに含まれるかどうかの記述などがそれに該当する。
となると「(A・B・C)で(A・a・同義)なら」のようなAND計算や
他にもORやXORなどの条件記述も必要になってくるだろう。
このあたりはやや複雑になるので、明日以降に説明したいと思う。
ANDにORにXOR
複数条件の記述は、少し違ったやり方で行う。
ANDの場合、(ポインタA・ポインタB・両立成立で成立)
ORの場合、(ポインタA・ポインタB・どちらか成立で成立)
XORの場合、(ポインタA・ポインタB・どちらかのみ成立で成立)
というように、構造そのものが外部に向けて成立か不成立か
いわゆる、ONかOFFかを出力するようになっている。
NOTの場合は(ポインタA・-・成立で不成立)
というようにポインタBを使わない構造にする。
上の条件記述と(主A・主B・同じで成立)(従A・従B・同じで成立)(関係A・関係B・同じで成立)
の、単語が同じかどうかを判定する記述を併用すれば、質問のYESNO解答仕様にある
(主A)の(関係A)は(従A)か?という構造と、データベースを見比べ
主、従、関係の全てに、同じで成立するものがあれば、答えはYESになる。
YESNO解答の質問
上記補足。例としてリンゴの色を質問する場合。
(リンゴ)の(色)は(赤)か?
と質問すると、推論システムは、データベースの中から主が(リンゴ)である部分を検索する。
これは、質問の主を(主A)としデータベースの主を主Bとした(主A・主B・同じで成立)でチェック。
最後まで検索し、見つからなかったら「わからない」と返す。
見つかったら続いて、そのデータの関係部分が(色)であるかをチェックする。これも主と同じ処置。
見つからなければ「わからない」。
見つかれば従が(赤)かどうかをチェック。赤ならYESにフラグ立て。それ以外ならNOにフラグ立て。
見つかった場合も最後までチェック。YESのみフラグが立っていたら「YES」。NOのみなら「NO」。
そしてリンゴに赤の場合と青の場合があり、両方にフラグが立っていれば「どちらでもある」と答えさせる。
ただしこれは、言語完全一致のみの検索である。推論システムをもっと賢くさせたければ
実際には(リンゴ)を(りんご)に置換して探したりなどの、情報操作が必要になるだろう。
上記補足の補足。
検索を主、関係、従の順にしたが、これは重要。
関係、従、主の順で検索すると、うっかりトマトの色が赤のデータを発見し
最後の主がリンゴ≠トマトなので答えがNOになってしまう場合がある。
ポエム続けても、ポエムでしかないよな
まあ本人が一番自覚しているんだろうけどw
>>707 気にしないで下さい、俺にはとても参考になりますから。 それでは、頑張って下さい。
すまない。限られた質問にしか答えられないんだ。
◎推論用のルール記述。属性定義。
同義や大小変換よりも、需要な定義項目がある。それが属性定義である。
リンゴは果実に属し、果実は植物に属する。のように、ある単語が表すものは
より広範囲の表現で言い表すことができる。
この時、属性の下位側にある単語は、上位側のルールをすべて引き継ぐことができる。
果実の定義で、木に生るとあれば、リンゴは木に生るのが推測できるし
単語自体が実の省略形だという定義があれば、リンゴがリンゴの実を意味する事も推測できる。
もちろん上位の上位、植物の定義も、リンゴは引き継いでいることになる。
この属性定義によるルール引継ぎを、推論システムに組み入れる事ができれば
ソクラテスが死ぬかどうかの推論も、正解にたどり着くことができるだろう。
デフォルト値の設定をすべきか?
質問に対し、色々な答えがある場合があるが
そういう場合でも、大抵は一般的な答えが決まっている事が多い。
例えば「虹の色はいくつ?」という数を質問した場合、7と答えるのが一般的である。
しかし科学的には色数は無限大が正解で、実際もそうではあるが一般的とは言えない。
しかし、ここで項目へ新たに一般的かどうかの設定を付け加えるのは適切ではない。
あらゆるデータに一般的かどうかの情報を加えるのは無駄である。
こういう場合はポインタを使用し、このデータが一般的かどうかを
修飾するのが正しい手順だろうと思われる。
theとa。固有か一般か。日本語は文脈考える必要があるのかな。述語で区別できるか。
指示代名詞がつけばみわけらられるな。
普通の人なら706あたりなんか最後の結論がすぐに出てそこまでの長い文章必要ないんだけど
考えるのに時間かかる人って大変だな
すまない。君が何を知っていて何を知らないのかは、私にはわからないんだ。
◎配列情報は必要か?
平面状のゲーム、○×やオセロ・将棋など、次の手を推論するような場合
二次元の配列情報を使用する事は必須だろう。
ただ、単純な推論をする場合にはそこまで複雑なものはいらないし、できない。
単純な推論に必要なのは個々の関係式だけですむ。
しかし、2次元未満、個々の関係以上となると、少し考えないといけない。
例えば、正座・干支・信号機の色・虹の色など、順番を持つ複数の集合体。
これらを簡単に扱えるようにする為に、1次元配列が必要ではないだろうか?
脳であれば並列検索ですぐに答えが出てくるが、パソコンでそれをするとなると
膨大なデータベースの最初から最後まで検索しないといけない。
ならば、(信号機・A・色)でA(赤・黄・青)のようにした方がいいだろう。
しかしその場合、A(赤・黄・青)とB(赤・黄・緑)の2種類の情報がある場合ならともかく
信号機以上に複雑な条件が絡み合う場合は、単純な一次元配列では処理しきれなくなる。
処理の方法を一部変えてしまい、かえってより複雑な構造になってしまうよりは
今の単純な構造の積み重ねで処理したほうが、良いだろう。
ダメな奴がいくらやってもダメ、
718 :
メカ名無しさん:2009/07/25(土) 22:58:56 ID:xyhcg4UM
717=ダメな奴の代表
719 :
メカ名無しさん:2009/07/26(日) 15:05:43 ID:4xOpqFbN
◎推論システム側からの質問
推論データベースは、人間の常識と同じ程度の知識を
どうやって蓄積していくのが正しいだろうか?
既存の文章を解析して入力する方法は、文章解析技術がまだ発展途上であるので無理だろう。
しかし、知識を完璧にするには、単語が一つ増えるたびに今まで入力してきた単語と
どういう関係があるのか照らし合わさなくてはならなくなるが、それはかなりの手間だ。
これを回避するため、推論システム側から質問し、こちらがその答えを出すという
立場を逆にした方式で入力するのがいいと思われる。
実は、上と似たような事をオモチャで実現しているものがある。
バンダイの「トゥエンティキュー(20の質問)」というもので
人間側の考えている単語を人工知能がいくつかの質問で当ててしまうオモチャだ。
この形式を参考にし、ある単語を入力した時に、それがどの属性に当たるのか
形や色や性質がどういったものなのかをこちらが答える、という方法で蓄積していくのが正しいだろう。
(もしかしたら、バンダイのオモチャのデータベースが常識データベースとして流用できるのかもしれない)
それがなに。
722 :
メカ名無しさん:2009/07/27(月) 01:17:30 ID:B/dGjpxS
バルドスカイっていうゲームでのAIな話が面白かった。半導体な機械的なAIでは知性を得ることができなかったが生体的な物質を利用したAIでは知性が発生したという話だったが・・・
ぶっちゃけ脳科学的にはどういうプロセスで知性を獲得しているのか気になった。脳味噌シミュレータを作って検証するアプローチはとれないの?
◎推論の順番
最終目的に到達する手段を探す場合、その推測方法は主に逆順で行われる。
部屋に入るのが最終目的だとしたら、その前に扉を開かなくてはいけないし
扉を開くにはロックを開錠しなくてはいけなく、開錠するにはカギを手に入れないといけない。
推論エンジンにもこのように逆方向にたどっていくような検索方法が必要になる。
だが、カギがどこにあるか?というような状況になると、それは実際に探してみなくてはわからない。
そして、どこから探せばいいか、どうすればいいかの選択肢決定は逆順ではない。
行動する前に全ての手順を決定できる場合なら、逆順検索のみですむが
行動してみないとわからないような状況、行動による結果で次の行動が決まる状況なら正規順探索が必要になる。
ただ、これをすると後戻りできなくなる、というような状況では
行動後の失敗に対処できるかどうかの推論を、入念にさせなくてはならないだろう。
>>723 脳が完全にできても、体はできない、そして環境もできない。
ガラスの容器に入った脳だけで、知能が生まれると思っていないか?
脳が遺伝子によりプログラムがされていて、それによって知能が
構築されるとか勘違いしていないか?消防なみだぞw
726 :
メカ名無しさん:2009/07/28(火) 13:54:55 ID:bKwLLrj7
イルカに知能無いかな
727 :
772:2009/07/28(火) 19:31:54 ID:2O3/Rle1
遺伝子にブートローダーに当たる部分が無いとしたら脳は外部からの刺激のみによって知性を得るのだろうか?
◎推論システム側からの質問 その進め方
例えば、「馬が走る」という単語を(馬・走る・動作)と分析した場合。
そして「馬」という単語を知らなかった場合、推論システムはどう質問すべきか?
馬の構成物質や、馬はズボンをはくか?などを闇雲に質問するのは効率が悪い。
まずは「走る」という部分に注目し、走るという動作をするものの仲間かどうかを質問すべきである。
蓄積しているデータベースの中から「走る」と関連のある単語を抜き出し
それらと関連が多い共通項に属するかどうかを質問するのが正しいだろう。まずは属性分けだ。
そして例えば「乗り物」という属性が多ければそれに注目し、推論システムはこちらに質問する。
「馬」は「乗り物」に属しますか?
この場合の答えはYesだ。これでデータベースには(馬・乗り物・属する)が記録される。
ただ、ここからが問題で、データベースの乗り物に属するものに動物が一切無かった場合
システムは馬を無生物として分類し、燃料や材質の質問をしてしまうだろう。
そうならないようにシステムが次に質問すべきは、もう一つ上の属性についての確認である。
では「馬」は「無生物」ですね?
これにNoと答えることで、システムは「馬」を生物と判断し
その後の効率良い質問をすることができるだろう。
◎思考の無限ループの回避
卵が先か?ニワトリが先か?など、推論の中には思考が循環してしまい
結論が出ないものも存在する。もしも推論エンジンに、この対策を施してないと
堂々巡りのループにはまってしまい、二度と抜け出せなくなってしまうだろう。
こういうループの防止措置には、まず推論の履歴を残しておき
過去にまったく同じ展開があった場合にはそれを参照するようにしておく。
そして同一推論中の短い範囲で同じ履歴が数回あった場合には
同じ推論展開をすることを禁止し、異なる推論方法に変更させるようする。
そしてある程度以上ループを繰り返すか、時間をかけても答えにたどり着けない場合には
思考を中止し「結論出ず」という答えを出すのが正しい。
もっと情報を蓄積してから、改めて考えさせるのがいいだろう。
730 :
メカ名無しさん:2009/07/30(木) 01:13:52 ID:Zs3jUFRc
アイデアがあるのはいいけど
何か根本的に間違ってる気がする
種のような知性のパッケージがあればいいのでは?
すまない。知性のパッケージが何を意味してるのかわからないんだ。
◎エラー訂正
積まれてきた知識の中には、後で間違っていたり嘘だったとわかるものもある。
そういう場合はデータを訂正しなくてはならないが、単にそこの部分を真逆に書き換えたり
削除してしまったりすると、そのデータを元に発展させたデータまで影響を受け
データが合わなかったり参照先が見つからなかったりしてしまう。
また、単に削除した場合には、もう一度同じ事を聞いて同じように記録してしまうミスをする。
そうならない為に、間違っていたとわかったデータにはポインタを使い、そこのデータが
語情報だということを記録しておくのが一番だと思われる。これなら再記憶させようとしても
その情報が誤りだと知っているので、嘘の時もだまされることが無くなる。
ただ問題は、誤報が誤報だった場合。この時もポインタによる誤報を消去せず
誤報の誤報を記憶させておく。ただし誤報の誤報の誤報と、これ以上続く場合は
その時初めて削除を使い、「誤報の誤報」を「誤報」と記録させたほうがいいだろう。
◎データベースのジャンル分け
一般的な人間に近いほどの膨大な知識を入力した場合
何かを考えるにつれ先頭から順に最後まで検索していくことになる。
主の単語順に並べれば、主についての検索は速くなるだろうが
関連と従での検索は変わらないし、それ専用のソートMAPを作成したとしても
データの追加などにより、すぐに組みなおさなくてはいけないので効率が悪い。
こういった場合はデータベースをジャンルで分けておくことで多少の改善はされる。
一つの問題を推敲する時は、違うジャンルに派生する事は少ないからだ。
ただ、ジャンル分けとは言っても、その分け方により検索速度は大きく変化するので
質問内容の偏りを学習し、それに合った分け方をする必要があるだろうと思われる。
またデータの容量を2倍に膨れるのを覚悟するなら、データベース内で一つ前の同一単語が
登録されている行を記録しておけば、検索速度は格段に速くなる。
つまり、リンゴと書かれたデータを記録する際に、その前にリンゴと書かれている位置を一緒に記録する。
検索は最後に記録した位置から行い、リンゴの行を一つ見つけたら、後はその行数データを
逆にたどっていくことですばやく見つけることができる。
検索技術は日々発達しているので、もっと良い方法はあるだろうが
とりあえずはこの方法で仮決定としておく。
つかオマエが考えたことって既出の原理の後追いを適当に表現しただけ。
そこに妄想を入れたのがオマエのオリジナルで。
妄想部分がつっこみどころ満載ってところさ。
すまない。誰も完成させた事がないものだから、誰も正しい作り方がわからないんだ。
◎ポインタ形式が戻す値の内容
これまで書いてきた中で、幾度かポインタ形式をとりあげてきたが
そのつどポインタの内容が何を意味していたかが違っていたので、もう少し詳しく見るとする。
その1:構造そのものの値
A(リンゴ・赤・色)のデータがある時、Aのポインタを使って示されるものは
(リンゴ・赤・色)という構造そのものである。
その2:是か非かの値
AND・OR・XORなどで書いた時の成立か不成立かを参照に返す値が、それに当たる。
これは細かい内容を必要としないので、0か1を示すような単純な値のリターンである。
その3:推論結果の値
これまでの中で出てきてないが、是か非か以外にも、結論を出力しなくてはいけない場合が考えられる。
複数のアイテムの中から何が必要かを選択した結果や、その結果を次の推論に引き渡す時などには
こういったものが必要になると思われる。
このように複数種類の戻り値の形式がある事を考えると、単なるポインタで示さずに
ポインタの何を戻り値とすべきかもデータに含めないといけないと思われる。
◎データベースの制御
時には推論システムの判断を制御しなくてはいけない時が出てくる。
データベース方式はその場合どう対応すべきか?
*選択肢の制限
最終的な選択肢に、人に危害を加えるような事は削除しないといけない。
内部構造を確認できないニューロン等の方式だと、その削除が成功したかの確認は難しい。
だが、データベース式なら、最終行動の決定時に選択させないようプログラムすればいい。
ただし、相手がそれをするかも、という思考をさせるため途中では考えに入れるべきである。
でないと他人が他人を攻撃するのを見過ごしてしまう事になる。
*新しい知識の追加
あるジャンルの事柄について新しく知識を追加したい場合。
データベース方式なら、その知識群をデータベースの最後に追加するだけですむ。
後は内部でそのデータについて推論をさせ、既存データとのポインタを絡ませれば
推論システムにその知識を追加できた事になる。
ただし、ポインタで関連性を持たせた後に追加情報を削除すると
検索先が空欄になり、なんらかの悪影響があるかもしれない。
*データと動作の確認
この知識を持っているか?を知りたい場合、データベース式なら文字列を検索するだけで済む。
こういう場合どう考えるか?などを確認したい場合なら、1ステップごとの動きをモニターして
判断状況をチェックできる。内部構造が単純なデータベース方式ならではの方法だろう。
◎データベースの整理
無駄な情報で肥大し、検索速度が遅くなるのを防ぐため
あまり使用しない情報や、内容が重複するデータは別にしておくべきである。
例えば、「馬」についての属性情報を、「生物」「動物」「哺乳類」の三つで持っておくよりは
「哺乳類」一つで持っておいたほうが検索が軽くすむ。そして上位属性の性質を引き継ぐルールにより
「馬」に動物や生物としての特性も自動的に追加される事になる。
こういった簡単な推論によりデータ展開ができるものは削除しても問題ない。
ただし、複雑な手順を通して難度も同じ項目を探ることがあるなら、残したほうがいいだろう。
重複データと違い、使用頻度が極端に少ないデータについては、いっそきっぱり削除しても問題ない。
それのチェックには使用の度にタイムスタンプを書き換えないといけなくなるが
そうするよりは一日分の使用履歴を保存しておき、暇な夜間に一斉書き換えをしたほうが良い。
その時ついでに長期未使用データを分別し、削除するという方法がいいと思われる
ただし、パスワードなどの重要データは、削除禁止の指定をして消されないようにした方がいい。
737 :
メカ名無しさん:2009/08/06(木) 14:42:33 ID:T6U4sGrr
いいかげ、縦読みができない糞発言はやめろ
すまない。完成品が無いから、何に価値があるか誰もわからないんだ。
そろそろネタも尽きたことだし、次のステージに向かおうと思う。
◎なぜ書き込む気になったのか?
理由はごく単純。前に進もうとしている人が、見つからなかったからだ。
自分の知識が最先端とは外れていて、間違っていて、遅れていることはわかっている。
指摘すべき点が多数含まれている事なども重々承知している。
だが、独自で勉強しようにも、人工知能に使えるような推論システムの構築を
現実に進めている人は少なく、研究内容を発表している人はさらに少ない。
そしてこのスレを覗いてみても、相手への罵倒ばかりであり
「作るにはどうすればいいか?」を話し合う姿はまったく見られない。
なら、例え不具合のある考えにせよ、誰かが案を出し
それを叩き台にして考えられる場を作ったほうが良いのではないか?
そう考えて、未熟ながらもアイデアを出してみたというのが理由だ。
どこが悪いかの指摘も無く、ただケナすだけでは話は進まない。
「ここに不具合があるからこうしてはどうだろう?」が必要だと思う。
739 :
メカ名無しさん:2009/08/07(金) 10:41:57 ID:XGBIpMq3
AIができない理由ですか?
それは知能や知性を誰も定義できないからですよ。
見かけ上できていたり部分的な機構があったとしてもそれはAIではない。
AIの定義すら人それぞれだし。
科学では、細かい部分では飛行機がなぜ飛ぶかもよくわかってなかったりする。
それでも人間は飛行機を作り、飛ばせる。
それでは、次のステージ「感情」について語ってみることにする。
◎ロボットに感情は必要か?
推論エンジンを組み込み、日常生活の補佐をするロボットを想定した場合
そのロボットには感情は必要か?これはNOである。
中には欲しい人はいるだろうが、絶対に必要というわけではない。
ならば、感情を理解する能力は必要か?
これはYESである。ロボットが感情表現をする必要は無いが
補佐をする人間の感情を理解する必要はある。
いらついている時に話しかけないとか、恋人達の邪魔をしないという
あればいい程度のものではなく、医者が嫌いで痛いのを我慢している子供を想定すれば
その子を放っておくわけにはいかない。その子の感情を理解しないといけない。
741 :
メカ名無しさん:2009/08/08(土) 03:20:08 ID:/szNS4XF
辞書サイトから情報を再帰的に取り出し、NKPで解析し結果から知識DBを構築するプログラムを作成中。
なんとか動くようになったけど、かなりゆるい。単語、文節、文、記事の各情報のハッシュリストができるだけで、
取り出し方とかはまだ考えてない。この先が長いんだろうねぇ。
誤 NKP 正 KNP
744 :
メカ名無しさん:2009/08/08(土) 10:34:00 ID:cnKIqFd3
>>741 おまえがね〜♪w
まぁいくらソフトウェアでやったとしても脳味噌と同じように機構というか素子としての働きをするデバイスは存在しないのな。FPGAがあるじゃんと言われればそこまでだが。脳味噌は有機的な電子回路。
生産性は落ちるがハードウェア的・ソフトウェア的制約が少ないもので作らないとたちまち壁にぶつかってしまうのな。
>>741 おま馬鹿だろww
ほかの奴にもいっておくが、作るなら仮想であっても厳格な形が
あるはずだ、それは個人ごとに違うかもしれないがちゃんと明確で
なければオカルトじゃないんだから結果は作れない。
オマエラ作るという話で人工知能とか考えているんだろ?
知能を実現とか考えるまえに知能が何かを理解するほうが先なのに
気が付け。それを定義できない時点で作るなんて1000年早い。
まず作るのと生むという話を誤解しているのを直せ。
誰も自分で、本気で人工知能をつくろうなんて思ってないし、作れるとも思ってないから。安心しろ。
バカでもできる当たり前の批判は聞き飽きた。もう見に来るな。
747 :
メカ名無しさん:2009/08/08(土) 21:01:06 ID:3H0UTbOs
自分で作らずに、特許料をせしめようとかセコいなwwwwwww
問題は、本人が妄想だと思っているか、真剣に設計だとおもっているか
その違いだろ、前者は馬鹿だが後者はキチガイ。
馬鹿は行動を改めることが可能だがキチガイには付ける薬もない無理。
>>739 >それは知能や知性を誰も定義できないからですよ。
そのとおり、それは客観的定義だから主観的な定義は含まれない。
妄想でもいいが、それを全体に押し付けるような意味になる時点で
それは妄想ではない、ポエムはポエム板でという話になる。
先駆者に失礼がないようにするには、主観的定義であるという
意思表示を毎回明確に表現する必要があるわけだ。
ここは主観的=個人の占有ではない定義の猿真似でもそれは客観的
な判断と考えるべきなのが理解できていないのが多いね。
定義は決められなくても、目標は決めることができる。
自分の場合は「日常生活をサポートできる思考と判断力」だ。
◎閑話休題。理解する必然性。同一の構造である必然性。
人類は今まで色々な機械を作ってきた。それは自分たちの要求を満たすためである。
速く遠くへ運ぶ為に鉄道を作り車を作り、水がある場所を渡れるように船を作り
もっと遠くの離れたところへ行くのに飛行機を作った。
だが、浮力などの科学的な知識がある前から船は存在している。
流体力学が完全に解明されてないのに飛行機が飛んでいる。
全部が全部理解できなくても、そういう風に動くことがわかっていれば作ることができるのだ。
そしてもう一つ。車・船・飛行機。どれも動物や魚や鳥とは似ても似つかない形であり
それでも離れた場所へ行くという目的を達している。それを踏まえて考えると
ロボットが人間の脳内を完全に再現する必要はあるだろうか?
自分は無いと思っている。構造や原理の必要な部分だけを抽出し
目的の能力を満たすものが作れればいいのだと思っている。
どの変が実用新案なのか、まったくわからん。
そんな曖昧な人工知能がなんで特許なんだかイミフメイ
まったく何をどのようにとかまったく考えてない頭の弱い
>>747が
思い浮かぶ。
751 :
メカ名無しさん:2009/08/11(火) 21:16:11 ID:8wle9W2K
コンピュータの考え方を利用して知能作ろうってのがそもそも間違いなんじゃねーの?
と思うんだ。
コンピュータを利用して脳味噌やらいろいろな現象の解明に利用するのは正しい。
脳味噌のような振る舞いをするものを仮想で作るのも正しいと思う。
だが現行のコンピュータの考え方に乗っ取った。
なんていうかアルゴリズム的なもんの集合体で知能作るのは不可能なんじゃねーかと。
数十年前に人工知能ブームでいろいろ試行錯誤したが結局得られたのは「人工知能が実現不可能じゃねーか!どうしてくれる!という証明」が得られたと習ったな。
副産物的にいろいろな考え方やアルゴリズムやらテクニックが生み出されたおかげで今日の恩恵があるのは周知の事実だとは思うけど。
スレ主のサイトの考え方見てるとどーも人工知能っていうか個々の意思の集合体ってかネットワークに過ぎないわな。
まだこの世に見ることのできない人工知能が「人間らしく振舞う。」とするならばその人間らしさを個々の人間に委ねてしまってる点でアウトだと思う。
それは人工知能とは言わない。
データベースに蓄積して云々ってのも眉唾臭いなー。
中核となるそのシステム(これがAI?)とやらに学習させるがために人間を介在させるという意味なのかねぇ。
それでもその学習したシステムは知能得てるか否か・・・。
パターン学習の一種だとは思うが・・・それ知能?人間もなんだかんだ言ってそこらに歩いている蟻と同じようなもんなんだから複雑化させればというのは安易な気がするよ。
あと
>>749の必要な部分だけとあるが・・・何かしら理由と淘汰と進化の結果が人間。
目的の能力を満たすものが作れればいいという考えは正しいけど
それだと個人個人の目的と目標は千差万別であって人工知能の定義も千差万別ということになるぜ。
客観的と主観的とあるけどよー。
そんなこと言い出したら
A「人工知能はそういうものなんだよー。」
B「そうだろうねー。おまえの「頭の中」ではな。」
ということになるよ。
必要なのは客観的と主観的とを結ぶ「共通の認識」だろ?
アプローチは様々だし、目指すものも色々なんだよね。
高度な問い合わせに回答できるなら、それはもうAIだろっていうのもありでしょう。
感想とか、考察とかは面白いけど、
できないできない、お前みたいなバカにできるはずがないと言って回るのは、
おせっかいというより迷惑でしかないよ。
公費で研究してるならともかく、趣味でやる分には、とやかく言われることもない。
ここまで数学一つも出てこないだろ?
文系のたわごとなんだよね
期待するな。数学版へ行ってQAの手伝いでもして来い。
◎こちら側を認識してもらうための定義
AIや人工知能の定義が人それぞれだから定義できないのには賛同する。
だが、自分が今作ろうとしてるものを「AI」や「人工知能」と言った覚えは無い。
「推論エンジン」「推論システム」の単語を使ってきた。
これは、「推論システム」がAIや人工知能とは等価では無い事を意味する。
なので話をわかりやすくするために、この「推論システム」を自分なりに定義させてもらう。
推論システムの定義
問題を与えられた時、今まで得られた知識を使い
推論することにより、問題の答えを出すシステム。
これは、AIそのものではないが、自律するロボットのAIには必要なシステムの一部だと思う。
もう一度書いておく。自分が作りたいものは「AI」や「人工知能」そのものではない。
「AI」や「人工知能」に必要だと思われる「推論システム」である。
この程度の思考実験なら、妄想君の類が捨てるほどやっている
その1匹がここで沸いているだけ。
問題は物事の本質を見ていないこと、自分の欲に突き動かされ
ゆがんだ像しか見ていないってこと。何をしてもその覚悟ができて
いないってこと。
だから中途半端で歪んだ何かしか掴めない。
まあそれにつられて文系がいぶりだされてる感じではあるけどな
理系であることだけに優越感を持つ人って、たいてい底辺だろうな。理数底辺。田舎に帰って畑でも耕せ。
妄想なら誰でもできるってこと。
妄想から現実に戻れないなら病院に行くべきだってことな。
760 :
メカ名無しさん:2009/08/14(金) 07:45:35 ID:kgILPwN6
よくわかんないけどターミネーターはまだ作れないわけですね
ようわからんが推論機構を設計or定式化しようと言うんだろ
どんなモデルを使ってんのかわかんないけど
がんばれ
762 :
メカ名無しさん:2009/08/14(金) 07:59:22 ID:kgILPwN6
推論機構以前にあの皮膚の設計は無理でしたね
昆虫レベルの人工知能は実現してるんですか?
毎年エライこと言っている君だが、なんの前進もない。
オカルトとか妄想とか、小学生の話ならそれはそれでいい。
社会人なら結果だせよ。ぼけw
怒ってる人に自動で謝るボットを作るのはどうだろう。皆上機嫌になりそうだ。
まあ着々と著作権は得てるけどね
そう卑下するものでもないぞ忠幸
著作権じゃイミネェだろ。トンデモなキチガイだって特許申請している
だぞ、ためしに申請してみろよw
著作権で特許申請すら食い止められるけどな
やっぱもの知らない文系脳多いな
高校生乙
そうするw
でもまず新規性があるかどうかぐらいは確かめなきゃね
デンパ的な特許申請の多いこと多いこと、検索してみるんだなw
そのデンパ的なのがドクター中松みたいな奴って話な。IBMも苦労した
わけだ。
まあ何一つ知財持ってない奴が言ってもしょうがないわな
と、キチガイが偉ぶっているのはなんでだろw
持ってない人よりは偉いかもなここロボット板だし
嘘いうやつはエライよ、脳内だけね。(惨
777 :
つんく:2009/08/22(土) 01:16:05 ID:swHyniou
シャブ漬けにね
文句言うためにスレを覗きに来てるのだろうか?
できると思うなら方法を考えればいいのに、考えてないようだし
できないと思ってるなら、わざわざスレを覗きに来る意味が無いんだし。
この手の否定派って聞いてみると漫画の話しかしない人多いよね
だから敢えて聞かないんだけど
つまらないから
できると思うならスレに方法を羅列する前に自分で作ればいいのに、作ってないようだし
>759
とか書けば良いのだろうか?
つまらないことを書くから叩かれるに決まってる。
もう少し有意義な事を書いてくれれば面白いのに。
いいかん妄想ごっこはやめとけ、有意義?
おまえには全てが無意味だろ、アフォかよ
>>779 よくわかっているじゃん。ニート君が人生の壁を越えられず
引きこもりの幻想をしているだけ。
>781
おいおい俺が叩かれる側なわけ?
ごっこ遊びを止めたきゃ、それこそこうすれば良いと言うのを誰の(真っ当な事を言うと素人の)目にでも分かるように数値やら図やら出してくれと。
それを出さずにあーだこーだいうのはそれこそガキの水掛け論だろうが。
テストケースも無いうちからただただ何かを羅列するだけで何が出来るかわからん様なのを書かれても「大半の人には」ツマんないわけ。
ここは備忘録のために使うところじゃないんだぜ?ちっとは人のことも考えてくれよ。
ちなみに俺みたいなアホなんかほっといて実に高レベルな話し合いがしたいんなら、こういう便所の書き込みなんかじゃなくて学会に行くことをお勧めするぜ?
便所の書き込みと理解しているのに、便所の落書きが大好きと
彼は申しております。
>>782 シッタカも満足にできない奴が、 他人にやつ当たりして憂さばらししているだけなので気にしないように
785 :
メカ名無しさん:2009/08/23(日) 00:53:22 ID:k+yM6+bb
ほんとな
知ったかになりきってないのが非常に痛いよなw
書くと考えがまとまったりするからね。書いてる人にはいみがあるよね。
意味ネットワークでぐぐると、ちょぼっと似たようなのが出てきた。ちょうど似たようなこと、
やってるから興味があるんよね。中学の国文法の勉強しなおしたよ。
cabochaでも取り込めるようにしたんだけど、知識ベースへの取り込みで、とまっちまった。気合が入らない。
深く考えずに、適当に取り込んで、問い合わせができるようにすれば、とりあえずはじめられるんだが。
早く作って、人類を征服しないとドロンジョさまに怒られるんだよね。
787 :
784:2009/08/23(日) 09:36:59 ID:mlIBqbPs
君は以前、推論システムの構築法を書いていた人だろ?そろそろコテかトリップをつけてくれないか?
788 :
784:2009/08/23(日) 09:41:45 ID:mlIBqbPs
君の作っている推論プログラムが、コテをつけていない君の書き込みを読んで果して意味をとらえられるだろうか?
違います。2chの文章が理解できるなら人類征服は近いんだけどね。そういうレベルとかじゃないから。
>787
◎違うよ
791 :
784:2009/08/23(日) 13:26:56 ID:mlIBqbPs
そうなのか。それにしても>789と>790の応答時間が接近しすぎて吹いた・・・これは余計なことだったな・・・
お互いに仲間が見つかってよかったな、おめでとう
>人類征服は近いんだけどね。そういうレベルとかじゃないから。
なんか妄想をしている人なのね。
所詮はオマエラの知能では不可能ってこと
シンギュラリティ。ひとつの強いAIができると、彼は自分自身を改良しあっというまに、
神の域の知能を得てしまう。人類は彼に従うしかないのである。
796 :
メカ名無しさん:2009/08/24(月) 12:12:39 ID:lFLynqvs
お前らの知能では就職も無理だったろ?
臨兵闘者皆陣列在前! 悪霊は去れ!
>>796 マジFA的なこといったら、かわいそうだろ。
ニートにはニートの闇が待っている。本人も大変だが、
それを支える親も大変すぎるな。
ニートでもいいから自活して誰にも頼らない生活ができてからだ。
年金払って無い奴に発言する権利などねぇよ。
他人にネガティブな呟きを吐く事しかできない存在は、幽霊に等しい。
◎文章の解析とデータベース
定型的な文章でしかやりとりできないままなのは、やはりまずい。
推論システムとは別の機能になるが、やはり文章解析の能力は
進めていくうちに必ず必要になってくるはずだ。
だが、その文章をどう解析していくか?
基本としては文章内に含まれる単語と、その接続詞に分けられるだろう。
(赤い)(リンゴ)(が)(2個)(机)(の)(上)(に)(ある)
そしてその単語群がどういう繋がりかを検証していくシステムが必要になる。
だが、繋がりの検証以前に、その単語はどこのデータを元に調べるべきか?
やはりそれは推論システムの持つデータの単語群からがベストになるだろう。
検証前は、推論システムには文章解析が必要、という片道の必要性を考えていたが
どうやら文章解析にも推論システムの持つデータが必要と考えたほうが良さそうである。
つまり年金を払ってないことを認めるってことか
まあこいつ↑の場合何かをやるのを放棄するために適当な理由つけてるだけだからね
簡単にニートだと判定できてしまう書き込みだ
>>799 それ、一番大事なことなんで後付けで言うことじゃないから。ということはまだ実装の段階じゃないのか・・・
現状
>>786がはるかに先行している模様だね^^;
どこがw
799の発想は1世紀前の天才の域であって、100年前の単純思考ってことな
EXELでは必要な関数が無かったのでデータベース系言語のDelphiで組もうかと思っている
◎これは何か?がわかる「知識」と、どうすればいいか?がわかる「知恵」
データベースに組み込まれるのは、主に「知識」の部分である。
あるものが、どういう性質のもので何と関連があるかを知っているという知識だ。
ただ、実際に行動するロボットとなると「知識」だけでは行動はできない。
例えば、買い物の帰りに雨が降ってきたとする。空から落ちてくる水滴を見て
推論システムはデーターを検索し、それが雨だと理解する。ここまでが「知識」だ。
問題はここから。このままだと、ロボットの体も濡れるし、買ってきたものも濡れてしまう。
そこで雨が降ってきた時はどうすればいいか?を考える「知恵」が必要になる。
知識の場合は「水滴」「空」「落下」などの情報から、絞り込み方式で判断できるが
知恵の場合は、どうすれば良いかの判断はすぐにはできない。
まず、そのままだとどんな事が起こるかの予想と、それが利益か不利益になるかの判断。
不利益になるのなら、それを回避する手段はどんな方法があるか?回避に複数の手段があるなら
その中から、現在の状況で最適なものはどれか?など数段階の判断が必要になる。
さらには結果が良くなかった時の学習と、それを考慮に入れた上での他の方法の選択なども考えると
その処理はさらに複雑になっていく。
知識と知恵とでは推論システムに必要な要素が段違いである事を、作成時には考慮しないといけないだろう。
自分は、知識を加工して新しい知識をつくることが知恵だと考えてる。
創造しているときの脳の動きって思い出すときに似ているから、間違った記憶を思い出すことが想像力の正体だ
って感じのことが書いてあった本もあったし。確か「進化しすぎた脳」だっけ?
◎検索速度の問題
ある程度知識を蓄積していくと、どうしてもぶつかる問題に該当する検索が見つかるまでの速度がある。
単語と関連の登録がある程度以上増えていくと、どうしても検索速度が減速してしまうのだ。
辞書のように歴然と並んでいる訳ではないデータベースから探したいものを見つけるには
並列処理のシステムが無い限り、膨大な時間がかかってしまう。
ただ、知識にはその重要度というものがあり、持っているデータベースの全てを検索しつくさなくても
よく使うものや重要な部分を取り出すだけで、推論の結果を出す事は可能である。
なので検索のデーターには重要度や頻度などを考慮に入れるのが、効率が良くなると思われる。
それを考慮すると
検索し重要度の高い部分のみを出す→推論→結果が出なかった場合、新たに掘り下げて検索→推論→以下繰り返し
のような、複合的な推論システムが必要になると思われる。