1 :
オーバーテクナナシー :
2006/11/26(日) 00:15:46 ID:qzPFh7Hz デュアルとかメニーとか逃げてないでさ。 正々堂々と周波数を伸ばそうぜ。 んで理論的には何GHzまで伸びるの? 100GHzくらいはいくよな?
なんでGHz?
現時点の技術理論延長上の予想では100GHzなんてぜんぜん無理。 もっとも新しい何か、ブレークスルーが見つかれば別かもだが。 もちろんもしやっぱりダメであってもメニイコアなどのように なんらかの方法でまだまだ処理能力はあがるだろう。
5 :
オーバーテクナナシー :2006/11/26(日) 03:10:11 ID:j6YeLv7R
メニーコアにしたとして そのコア間のクロック自体は上げる必要あるよね 従来ので事足りるのかな?
とりあえず、トランジスタレベルでなら500GHz程度 LSIでも350GHz程度までなら開発されている。 x86系CPUがクロック周波数を挙げられない要因は リーク電流による発熱とx86互換って足かせが有るから。
7 :
オーバーテクナナシー :2006/11/26(日) 12:01:27 ID:qzPFh7Hz
やはり1THzは夢のまた夢なんだな・・・
8 :
スーパ-グレートヒッキー ◆LMll/5hoIQ :2006/11/26(日) 12:20:10 ID:rV8bGY7S
勿論、スーパ-グレートヒッキーまで到達するのだが、質問あるかね?
8>> いつ到達するの?
1GHzで 1サイクルあたり電流が最大で30cmしか流れないから, 500GHzだと,0.6mmしか電流 流れませんね,1サイクルあたり. つまり,500GHzで動作させようと思ったら,CPUのコアの部分の 部品を0.6mm以下の大きさにまとめないといかんと言うことに,,. 同期させないって手もあるのかな?
光速30万km/秒 ÷ 1G = 30cm で、そういうことが言えるの?
12 :
Kひげ :2006/11/26(日) 16:28:42 ID:/qgmMXJB
たれながし、アルゴリズムにすればできるかも、正解にヒットした 答えだけが返る、かたち。
13 :
Kひげ :2006/11/26(日) 22:04:26 ID:/qgmMXJB
人間は5+2を計算するとき5回カウントしたりしない 記憶の中の答えを持ってくるだけ、同じことを 垂れ流しでやらせる、あたったら、答え。
光でスイッチすれば周波数上げるのは可能だろ。 だが処理するデータを保存しておく主記憶が作れるかは別の問題で 現状のメモリは20年前のメモリより10倍程度しかアクセスタイムが 早くなっていない事実を知っておいたほうがいい。
15 :
Kひげ :2006/11/27(月) 09:15:58 ID:tdJLo+I1
光のスピードも、電気信号のスピードも同じ30万k なんていって見る。
垂れ流しとかよくわからん用語をつくらんでくれ。 掛算の九九方式は普通テーブル参照と呼ばれとるのよ。 電線の中を電位変動が伝わる速度は光速と比べると結構遅いよ。
17 :
Kひげ :2006/11/27(月) 20:28:42 ID:tdJLo+I1
その先が知りたい、それで????・・・。
18 :
Kひげ :2006/11/27(月) 20:37:41 ID:tdJLo+I1
クロックもタイミングもない勝手に素子で動き出し 答えを出す、その答えのうち、筋のいいやつを 回答とする、って言ってんだけど。 九九のテーブルは、足し算には使えない、足し算テーブル が必要かな?? ・ ・ ・ 。
>>18 どうやって「筋がいい」って判断するつもりなのか
一切略すことなく詳細に説明できたら戯言に
付き合ってあげてもいいと思えるかもね。w
>たし算
デジタル回路でたし算なんて基本中の基本ですが?
20 :
Kひげ :2006/11/27(月) 21:27:27 ID:tdJLo+I1
へっへへ〜〜それが問題だ、ところで人間は答えが合っていることを
何で認識するんでしょうね〜〜。
足し算
>>13 を読んで。
kひげ あんた何者?
22 :
Kひげ :2006/11/27(月) 22:00:55 ID:tdJLo+I1
なんと答えたらいいんでしょう〜〜。
23 :
Kひげ :2006/11/27(月) 22:34:27 ID:tdJLo+I1
通りすがりの、ばか者です。
ひげが言ってる事って量子コンピューターじゃん
5を足すのにインクリメントを5回もやってるとおもってんのかな。 単純な四則演算ぐらいマイコンでも1クロックで出るよ。
26 :
Kひげ :2006/11/27(月) 23:33:56 ID:tdJLo+I1
返事をすると、自分のバカをさらけ出すんだけど。 たとえば、51577+753なんてのがあった場合に、どでかい 足し算テーブルがあれば一発で読み出せばいい。 なんて思ってるんだけど、人間は2桁くらいの計算ならば けっこう記憶で出せる、(足し算テーブルを持っている)、 あんだけメモリーがあるんだから、圧縮してどでかいテーブルを 持っているのもいいのではと思っているだけ。 あまり確信を持って話しているわけではないので、 あまり突っ込まないで、あくまで、通りすがりの、ばか者ですから。
漏れが答えを硫黄。周波数を上げられないのはすべてメモリ装置が遅い為。 CPU内部にもメモリが存在して容量が増えるほど高速なメモリを作るのが 難しくなる。 コスト的に実現可能な大容量なメモリはコンデンサメモリしか存在せず、 これを置き換える画期的なメモリが開発されない限り周波数向上は 停滞したままとなる。 CPU早くてもなんにもならん、主記憶のメモリ装置を高速化汁! 現在の主記憶はアクセスタイムは高速なものでも30ns程度だろ。 1MHzのCPUの時代でもメモリのアクセスタイムは200ns程度だよ 現在CPU製造メーカーが一律で並列化の方向へ向かっているのは 周波数信者の勢力の虚言に筋が通らず周波数を上げるパイプライン多重化 の努力が無駄だと判明した為とかの理由が存在するニダ
いやいや、周波数は周波数で可能な限り高めようとしてるよ。 主記憶との速度ギャップはキャッシュメモリでむりやり吸収しようと小細工してるわけで。 メモリ速度にあわせてクロック速度を遠慮なんかしてないよ。
でもまあ周波数上げても速くならんのはそのとおりだが。
30 :
Kひげ :2006/11/28(火) 10:05:07 ID:ARXIxHTG
メモリーのアクセス速度は、基盤の大きさと、光の速度で決まるんでしょ どんなことをしても、それ以上早くは出来ない、あとは、読み込む大きさ 8Bitで読むか、64Bitで読むかによって、データーの大きさが変わってくる
31 :
Kひげ :2006/11/28(火) 10:10:11 ID:ARXIxHTG
あとは、CPU内部のクロック、キャッシュはスタチックRAMでしょ〜〜 ということは、コンデンサーなんて関係ない、単純なフリップフロップ て〜〜ことは、また光の速度とCPUのダイの大きさで最大速度が決まる。
32 :
Kひげ :2006/11/28(火) 10:12:23 ID:ARXIxHTG
アインシュタインいわく、光の速度は超えられない。
33 :
Kひげ :2006/11/28(火) 10:16:25 ID:ARXIxHTG
ところで、量子のつながりは、光の速度を超えるらしいけど〜〜〜。
どうでもいいがその文体ヤメレ、イライラする。
35 :
Kひげ :2006/11/28(火) 10:27:35 ID:ARXIxHTG
あまり突っ込まないで、あくまで、通りすがりの、ばか者ですから。
通りすがり?
>>30 そのスタティックRAMに溢れたときにどのように動いているか、
知らないで騙っているのか?
キャッシュメモリは単に主記憶のクッションとして動いているにしか過ぎない。
「単純なフリップフロップ 」な訳だがDRAMと比べて複雑なのも事実。
PCメーカーはすべてSRAMのPCを発売したこともあったが、
性能の差がほぼ無かった。理由は簡単で配線による物理的な要素のほうが
はるかに巨大であった。信号は無限の速度では伝わらない。
>「光の速度で決まるんでしょ 」
電気の伝わる速度。基盤を使う方法では基盤上での遅延は異様に大きい。
すべてCPUコア内部に主記憶を内蔵すれば遅延は減るが物理的に無理。
>8Bitで読むか、64Bitで読むかによって、データーの大きさが変わってくる
いまのパソコンのCPUが内部で何ビットで読み出しを行っているか
まったく理解していない。キャッシュ上ははるかに大きなビット数でデータを
一気に読み書きしている罠。
メモリの応答性能の高い並列度による帯域を持たせることで隠蔽が可能だが
それは周波数を上げる技術では無理で多重スレッド方式で隠蔽が可能となる。
いま多コアCPUやマルチCPU対応アプリが騒がれるのは、その辺に対応
する為。
この流れは周波数を減らす方向に動いている。性能は逆に上がる。
38 :
オーバーテクナナシー :2006/11/29(水) 16:42:09 ID:ZKHakePP
現状、単発コアでのCPUの性能は頭打ちらしいぞ 物理的な部分で限界らしい
39 :
Kひげ :2006/11/29(水) 19:35:36 ID:thWmGxPb
>>37 バカをさらけ出す、
1 DRAMとSRAMの違いがぜんぜん判っていない
DRAMはリフレッシュが必要、その間はアクセスできない
(リフレッシュが判んなきゃ〜〜Googleを引いてみろ)
2 つかれるな〜〜、電気の伝わる速さと、光の速さは同じだよ
ただ電気は電流があり、電線には抵抗があるから、スルーレイト
が発生する。(スルーレートが判んなきゃ〜〜1項に同じ)
3 <キャッシュ上ははるかに大きなビット数でデータを>なんだこいつは
では何ビットで読んでるの〜〜
4 <キャッシュメモリは単に主記憶のクッションとして動いているにしか過ぎない>
キャッシュが判んなきゃ〜〜Googleで引け。
通りがかりの、ちょっと利口な、ばか者でした。
40 :
Kひげ :2006/11/29(水) 19:53:29 ID:thWmGxPb
追加、 2項の電圧だけで転送すれば光と同じ、電流が流れなければいい、方法は考えてみて。
41 :
オーバーテクナナシー :2006/11/29(水) 19:55:42 ID:LEJcR3Ga
ここで限界だと社会の成長も止まるな
42 :
Kひげ :2006/11/29(水) 20:10:27 ID:thWmGxPb
クロックが限界になっただけで、intellはマルチコア、に突っ走っている、CELL とかも、グラフィックアクセラレーターでは256BitCPUが走ってるし。
何で誰もマジレスしてないんだ? シリコンは理論限界が約5GHz ただし、これはシリコンダイオードの反応速度って程度の意味で、 現在のような、素子サイズがサブミクロンオーダーだともっと落ちると言われてる。 実際、リーク電流値が予測できなかった騒ぎもあったわけで、ぶっちゃけ現状は限界に近い。
44 :
Kひげ :2006/11/29(水) 23:40:49 ID:thWmGxPb
45 :
オーバーテクナナシー :2006/11/29(水) 23:56:52 ID:TlMnlSb6
>>44 ふむ、仮に
>>43 の言うとおり「理論的限界」が5GHzとしても、
とりあえず500GHzまでは「技術的限界」はないわけだなw
46 :
オーバーテクナナシー :2006/11/30(木) 01:43:49 ID:ewsB7Vgj
MRAMの可能性は?
47 :
オーバーテクナナシー :2006/11/30(木) 02:15:29 ID:NysD+z9A
量子コンピューターは、指数関数的に時間を消費する計算でも、一次関数的に計算できる。
>>45 理屈上の限界というのはもっと上だが、実質的に可能な
限界というのは既に到達している罠。
>>47 それは従来の仕組みとは異次元なので比較する時点てキチガイ。
手順式やソフトウエア式で行えば従来式のほうが実現性能的に
はるかに優れている。
>>46 問題は配線長であってシステム全体が砂粒以下になるなら
高速化は可能で、システムが巨大になり配線距離が長くなるほど
周波数性能が落ちるだけ。単純な話だろ?
>>44 揚足と同じ、過去にIBMは同じ事をして同じ結論(宣伝のみ)を
出している。決して実用なものではない。
超低温で素子の速度が異様な速度で動くジョセフソン効果と
同じか類似なもの。IBMがジョセフソン効果でコンピュータを
試作した場合の見積もりでは10cmx10cmx10cmの
入れ物にすべての装置を内蔵する必要があり実現可能とまで
思われたが膨大な計算データを入出力する能力が無いので
ゴミ扱いとされ研究は終わった。通信IFもそれだけの速度を
確保する必要があるんだよな。
500GHzx64ビットなCPUなら500Gx64ビット
=32000で、1%の外部との通信性能が確保できたとして
320Gの速度のLANが必要になるな。
>>39 最新のメモリのリフレッシュぐらいしらないのか?
リフレッシュは読み書きと同時に可能だし、パイプラインが
空いている時間にリフレッシュするのは当然だろ。
おまい時代遅れ。すくなくともDRAMの仕様書ぐらい読んでおけ
51 :
Kひげ :2006/11/30(木) 10:09:47 ID:8itaJ1vt
2GのCPUを1Gにダウンして使ってるけどぜんぜん問題ないw GPUもいいもので3Dゲームもさくさくだけどぜんぜん使ってないw
53 :
Kひげ :2006/11/30(木) 19:48:18 ID:8itaJ1vt
kひげ相変わらず暴走してるな。 現在のcpu内部の配線パターンがどれくらいの長さか知ってるか?
55 :
Kひげ :2006/11/30(木) 20:21:32 ID:8itaJ1vt
すみません、SDRAMをスタチックラムと読んでしまい、混乱していました。 SDRAM Syncronous DRAM 1クロックで 読み書きが行われるDRAM DDR SDRAM dobleDATA Rate SDRAM クロックの立ち上がりと立下りで、 読み書きが行われるDRAM 最大速度900MHZくらい 、 DRAMと言っている以上は、リフレッシュは必要(訂正の訂正をします)。 ちなみに、キャッシュはSRAMを使っておりCPUと同じ4MHZで読み書きしている
56 :
Kひげ :2006/11/30(木) 20:29:19 ID:8itaJ1vt
あと、メモリー動作のパイプライン処理というものがありSDRAM 以後は 読み書きともに、パイプライン処理が入っていた (この場合1クロックで3ステートの処理をすることだと思う「この先は調べていない」)
57 :
Kひげ :2006/11/30(木) 21:54:52 ID:8itaJ1vt
3ステ−ト--->3クロック分でした。
58 :
オーバーテクナナシー :2006/11/30(木) 23:43:30 ID:zbqdFKQZ
ブルーレイ、HD−DVD以上に将来性のある、小型でホコリや衝撃に強いSDカードは、 2009年までに4GBから32GBになる。 パソコンも小型化の余地はあるのか。 省エネで、ホコリや衝撃、湿度、高温に強いCPUなら、全体がもっと小型になる。 NGN時代のCPUセル化で、処理速度よりも、ユビキタス時代をリードするCPUが重要。 インテル時代を終わらせて、日本が世界をリードして欲しい。 OSは、TRON。 仮想メモリは、SDカード。 CPUは、??? プレステ3を小型化する方向に持っていけば、多分、形だけはハッキリしてくると思う。
>>kひげ
建前な用語使い方で技術系専門用語を並べると大勢から叩かれるよ。
>>55 その解釈も理解しているようにはみえない。
>>55 時代錯誤の昔の動作だと。
DRAMは読み出しでデータの破壊が行われる
つまり読み出したら必ず書き戻す。わかる?
一定周期で書き込みをすればリフレッシュは不要
DRAM自体つかったこともないんだろ?
>ちなみに、キャッシュはSRAMを使っておりCPUと同じ4MHZで読み書きしている それ何て8bit
62 :
Kひげ :2006/12/01(金) 09:36:55 ID:Kj51QMP+
あ〜〜〜、つらいな〜〜。 実はDRAM 使ったことない、キャッシュはそのCPU の仕様によるんでね〜〜の PENWならば32Bitとか、8BITに決めてしまうと何回も読まなけれないけない。 まいった _(_ _)_ 暴言をおわびします、平にごようしゃを。
63 :
オーバーテクナナシー :2006/12/01(金) 12:11:41 ID:9gRL2oa4
ちなみに家のパソコンは、1.6GHzです。
64 :
オーバーテクナナシー :2006/12/01(金) 13:17:35 ID:0UASbREj
65 :
オーバーテクナナシー :2006/12/01(金) 13:21:20 ID:0UASbREj
いや無知でなくて
>>43 ネタだろうな。
すでに液体窒素冷却だが、オーバクロックなら7GHzも達成されている
現在、「5GHzが理論的限界」だなんてw
大笑い。うん、いいギャグだ。
66 :
Kひげ :2006/12/01(金) 13:36:21 ID:Kj51QMP+
>>60 いえ、DRAM cellは原理的に破壊読出しです。絶縁層を挟んだ静電
容量に電荷を蓄えて情報を記憶するんですから、センスアンプで
情報読み出したらcellレベルではその情報は壊れます。
単に、メカニズムの進歩でprecharge timeと呼ばれた時間が短縮
されただけです。内部的なrefreshもprechargeも不要なら、我々は
それをDRAMとは呼びません。
>>59 ま〜、そーいじめんなよ。
>>62 まぁ、キミもよくガンガってる。DRAMの内部が2次元構成で、CASタイミング
で行単位でセンスアンプに取り込み、RASタイミングでそれを外に出力
するっていうDRAMの基本構造は知ってるな?最近のSDRAMってのは、
後者の出力タイミングを改善したものなの。CPU cache line fillに
適したバースト読み出しに適した形なのね。
最近の技術記事などに見られる「メモリレイテンシはここしばらく
改善していないか悪化」ってのは、RASアドレス自体が変化する
ようなランダムアクセスに関しては、「全然速くなってません」
ってことなんです。
>>65 む、考え中。1GHzで光速が3μm/clock?銅配線だと80%/真空光速
くらいだけど、Siだとどのくらい?電子伝導度?。結構きわどい世界に
達していないか?最近のデザインルールは100nm以下だけどさ。
現実の限界と理論限界の間には普通結構厚い壁があるけど。
68 :
オーバーテクナナシー :2006/12/01(金) 20:08:20 ID:0UASbREj
>>67 >現実の限界と理論限界の間には普通結構厚い壁があるけど。
言いたいことが理解できんが、Pen4系列なら去年か一昨年に
6GHz〜7GHzに到達してるし、周波数の上げにくいCore2Duo系列でも
液体窒素冷却で「ごく普通に」5Ghzは出ている。
(参考:
http://www16.big.or.jp/~bunnywk/superpi.html )
そこに持ってきて「5GHzが理論的限界」なんて書いても笑い話としか
受け止められん。ちなみに今のCore2Duoは65nmだが、すでに45nm、
30nmあたりまで実用化のメドがついてるわけで、そうなればまだ
周波数は上がる。
もちろんリーク電流の話とかはしってるよ。設計ルールが向上しても
ダイレクトに周波数上昇には結びつかなくなってるのはわかるが、
それでも一世代(回線幅で0.7倍、面積で半分)進むたびに1〜2割の
上昇は見込まれている。つまり当面、現実的可能性のある範囲で
言っても7〜8GHzはいく。クロックアップの話ではない、ふつうの使用範囲でも
5GHzは突破するだろう。
69 :
67 :2006/12/01(金) 20:39:43 ID:OA4uaYxL
>>67 だから何なの(苦笑)。別に、俺はシリコン技術が5GHzで限界なんて
言う気はないよ。5GHzも7GHzも誤差の範囲だって。多分もっと行ける。
デザインルールが向上すれば、基本的にゲート遅延は短縮されるはず
だから内部クロックの向上が期待できるはずという考えは間違いでは
ないと思う。35nmだかなんだかってのは聞いたことがある。だが、
5GHzが壁なんて言わんが、いずれ根本的壁にブチ当たるぞ。
壁に当たってクジけるのは嫌だから、ブレークスルーが欲しいのね。
広い意味でのリーク電流もそうだが、結晶解析やってみりゃわかるが
だいたい世の中の金属結晶って、だいたい原子量に関わらず原子間隔
1Å(0.1nm)強なんだよ。デザインルールがそれに近づくと、不導体、
半導体でもトンネル効果が目に見える形で出てくるわけですわ。
今すぐとは言わないけど、技術の進歩はどんどんそれに近づいている。
一時、原子層を数層ずつ重ねてトンネル効果を故意に使ったスイッチング
素子が盛んに研究されてたけど、最近話聞かないねぇ。どうなったんだろ?
まあ、液体窒素ドブ漬けは笑える。ソレってそんな最近の話じゃなくて、
「常用状態で液体窒素に基盤ドブ漬け」のETA-10があっただろうが。
不活性液浸のCRAYどころの騒ぎじゃねぇ。
アレ、「修理で常温と行ったり来たりする間に、熱ストレスでさらに
壊れるんじゃねぇか?」とか言われてたけど。結局、ソフトが整わずに
ミニスーパーx8で終わっちゃったみたいだけどな。東工大御愁傷様。
70 :
Kひげ :2006/12/02(土) 00:13:04 ID:fdrJ0Ea3
71 :
オーバーテクナナシー :2006/12/02(土) 06:52:28 ID:VvVeFP/S
とりあえず言ってあげますが、 いまのCPUは複層構造とはいっても 所詮2次元的です。 3次元的な設計ができるようになれば まだまだ速度はあがるでしょう
>>71 >3次元的な設計ができるようになれば
数段なら既にチップ上で3次元は実現している。常識だと思ったが。
断層写真とかみたことない?
>>69 自分で自分のレスみたいになっている、訂正67が67にw
訂正発言ぐらいしろよw
>68
>それでも一世代(回線幅で0.7倍、面積で半分)進むたびに1〜2割の
それは変じゃないか?
製造ルールが細かくなっても規模=回路数は逆に増えている。
インテルが周波数を上げられない原因の1つ(主原因)は熱密度
だったはず。周波数を上げるのは見た目の向上だよね?
Pen4だとパイプ20段、さらに周波数を上げるには、このパイプライン
数を上げなければならない
パイプライン数を上げても、その効果がPen3からPen4でほとんど上がらない
結果としてパイプライン数を抑えてとう方向に向かっているんじゃないか?
>言っても7〜8GHzはいく。クロックアップの話ではない、ふつうの使用範囲でも
小規模で周波数を上げるのはさらに高い周波数で動いているデバイスは
沢山あるので可能だろう、しかし業界や専門家の意見では逆に下げる方向を
考えているのが主流になりつつある。
パイプラインを使った並列化での周波数での性能向上より、パイプライン
を減らして周波数を下げるほうが規模が減るという現状があるかぎり
多コア化、マルチCPU、セルベース化の流れは止まらないと
おもわれる。
未来技術板だから、SF的に考えるとスタートレックのコンピュータが
まさに超並列型で逐次型ではなくライブラリーデータベースだけどね。
73 :
オーバーテクナナシー :2006/12/02(土) 22:14:05 ID:Xv+8s2lb
一部を除いて、未だに従来のパソコンイメージから脱却できない野郎ども、 じっくりまったりするのもいいけどね、時間というものに危機感を感じなさい。
100000万兆ヘタヘルツ
そろそろ限界で止まってくれていいよ。 年々何もしなくても速くなることがなくなれば いい加減なソフトウェア開発がもうちっと落ち着いてくるかも。
20年くらい前のパソコン雑誌に載っていたコラム 「i386なんて不要だ、100MHzの8086が有れば十分じゃないか。」を 思い出した、今じゃ有ったとしても使い物にならないだろうけど。
>>76 今の集積度なら8086の10MHzが10万個ぐらい1個のチップの上に乗りそうだ。
78 :
69 :2006/12/05(火) 07:11:06 ID:THwzagts
>>72 ぐは、ミスリンクよ。
>>68 のつもりで
>>69 は書いた。スマン。
ところで、
>>71 の言ってるように、私も現代の集積回路技術は二次元的だと
思っています。
そりゃ基本半導体自体が3層くらいでできてますし、その上に配線層が
何層か乗ってますし、それを貫くビアを打ち込むこともできます。
その上に、キャパシタくらいなら多分簡単に形成できるでしょう。
しかし、私としては「三次元集積回路」と呼ぶには、能動素子を
何層も、何十層も積み重ねて欲しいですね。(現状、不可能です)
>>75 んー、パラダイムの変化を起こすような進歩は開発者を悩ませるが、
それ以外は歓迎ではないか?PC界だと、割と最近のだと、「忙しい
スレッドが1本しかないようなコードはダメ」(笑)。これ、結構苦労
してないか?
俺、逆説的だが、元は超並列屋であるがゆえに、「難しいだろう」と
思うぞ。超並列向きのtrivialな問題ってのは昔からあるんだ。
ベクトル計算向け問題ってのもある。だから、SSE速いでしょう、
dual core速いでしょうとか言われても、今さらそんな特定問題持ち出して
速くないわけがねぇだろうヴォケ、とか思うわけですわ。
この利点を一般問題全体に敷衍するのが簡単だなどとは、俺は口が裂けても
言いません。そーだなー、グラフィックドライバと本業タスクが完全スレッド
並列で動けるようになるまで無理じゃねぇ?完全非同期描画。
描画系で今一番キチーのはゲームだから、多分大変ですよぉ。
>>78 シリコン半導体表面に回路を重ね合わせて作るのは限度はあるだろうけど、
6層ぐらいはあるか。
MCM(マルチチップモジュール)
スーパーコンピュータなどの用途なら100層とかある。
普通な利用でもセルの上にセルを重ね乗せての組み合わは製造されている。
まあ捉え方の問題だろうけど、MCMは形的には3次元ともいえる。
>>81 >来年後半に8インチウエハー対応試作ラインを構築し、
>2007年に2層型を量産化する計画。2008年には3層型の量産も始める予定
79が言う100層がマジなら3層じゃゴミだろw
83 :
Kひげ :2006/12/06(水) 16:49:08 ID:5zIkoKp6
いくら、小さくなっても、5Gのスイッチング速度は変えられない 小さくすれば、メインRAMをCPUに入れられるかも、キャッシュ がどんどんでかくなって、メインRAMがいらなくなるとか、 ワンチップCPUだね、5G揚げ足とっちゃったけど やっぱり、一番のネックでね〜〜の。
84 :
オーバーテクナナシー :2006/12/07(木) 10:45:31 ID:TNpAsIIG
積層チップをどうこうより本気で立体的に回路を作れんもんかね
>>83 現状の価値観が存在する限り主記憶が無くなることはない、
キャッシュメモリが1ギガバイトとかになったとしても主記憶は100ギガ
バイト、外部記憶は100テラバイトとかになるだけ。
この相対関係が薄れることはない。
いまのアプリケーションの概念でこの関係が崩れる事はないからである。
どんな概念かは不明だが、外部記憶を必要としなく、メモリもほとんど
使わないアプリケーションの概念が構築されて移行されるとすれば、
主記憶も必要なくなるだろう。
アプリケーションが「手順処理」系から「ネットワーク系」依存系になり、
通信の因果関係で個々の単体が意味をなすものではなく、ネットワーク全体で
1つの方向性として動くような情報ネットワークは一部の大学などで
研究はされている。
SFなどにも似たような手順処理系から進化したコンピュータは存在する。
87 :
Kひげ :2006/12/08(金) 09:32:58 ID:LOJbj2ik
そんなでかいRAMを乗っけて、何をやるの100テラバイト???。 クロックアップでしょう、いかに早くプログラムを回転させるかでしょう。 もしメインRAMを残したいんなら、メインRAMに早くアクセスする方法を考え なよ、現状こうていではなく。 チップセットをCPUの中に入れて、CPUがちょくせつメインRAMをコントロールする RAMのほうもCPUボードに直接実装してチップで両面実装する、(配線が最短になる) RAMもDRAMではなくSRAMを使い5Gのクロックに耐える。 全回路5G動作、な〜〜んてね。
88 :
Kひげ :2006/12/08(金) 19:04:12 ID:LOJbj2ik
FETは、冷やすと早くなるの??、(CMOS,NMOSはFETでしょ) 冷やすと、絶縁層がちじむ、低電圧で動かせる???(が早くはならない) -100度くらいになると、早くなるのはなぜ??。 -30度くらいまでなら、ベーチェック素子を3段にすれば行きそうな気がする (1段30度で、3段で-90度、パソコン内部が60度として、3段の先っちょは-30度) ものすごい排熱は、水冷却で何とかなる。 誰か答えて、教えて、冷やせば早くなる??。
>>87 64KBのメモリが広大に思えたあの時期をしらないようだな。w
ゼーベック効果でペルチェ素子よね
91 :
Kひげ :2006/12/09(土) 11:21:08 ID:CujK5Hs3
↑ すみません、記憶だけで書いていた。 ところで、冷やすと早くなるの??。
>>91 温度が下がれ(熱抵抗が減る)ば早くなるのは当然だろ。
時定数という言葉を電気用語の辞書でしらべてみそ
電気抵抗を小さくしたいのなら距離を減らす、配線を太くする
不純物を無くす、温度を下げる。素材を電気抵抗の低いものにする。
電気を使わないのが一番早いけどな。
93 :
Kひげ :2006/12/09(土) 16:37:37 ID:CujK5Hs3
僕もトンチンカンだけど、きみもトンチンカンでは 負けないね〜〜。 熱抵抗が減れば、早く冷えるだろうね〜〜。
はぁ?
もう量子CPUでいいよ。
96 :
Kひげ :2006/12/10(日) 11:14:30 ID:8ZbibTa6
あら、そっちをはじめます??。
97 :
Kひげ :2006/12/10(日) 11:31:18 ID:8ZbibTa6
>>97 そのサイトは誤訳。外人のいうcomputerと日本語の計算機は似ているが別もの
日本語のコンピュータは計算機システムをさし、量子コンピュータは
実在するというと嘘になる。ときどき勘違いするDQNちゃんがいる。
99 :
kひげ :2006/12/10(日) 16:20:51 ID:8ZbibTa6
100 :
Kひげ :2006/12/10(日) 16:30:55 ID:8ZbibTa6
ストアドプログラムとはかけ離れているけど 計算することはたしか、因数分解。 量子チューリングマシンが出来れば、チューリングマシンになる 全ての問題に答えを出すかもしれない。 遠い先の話でしょうけど(20年後、50年後)でもチューリングマシンとは 味力的でしょう、ワクワクしませんか。
101 :
Kひげ :2006/12/10(日) 16:52:56 ID:8ZbibTa6
>>98 さんの言うように、まだ実在していません、実在したら
今実在する、暗号を解きまくって、えらいことになる。
102 :
Kひげ :2006/12/10(日) 21:54:44 ID:8ZbibTa6
いつか、量子チューリングマシンが出来て全てに 回答を出すかもしれない・ ・ ・ ・ ・。 何か書こうと思っていたが、何も出てこない、ごめん m(-\-)m クロックアップにもどす???もう何もでない(僕からは)。
>>102 >いつか、量子チューリングマシンが出来て全てに
手順型のチューリングマシンは手順という概念の壁があるかぎり
限界を超えることは不可能です。
量子コンピュータがいろいろ騒がれていますが、結局は暗号を
解く以上はほとんど何も将来性はなく、従来で必要とされる計算の
ほとんどを従来技術を使わずにできないという問題があり
ニュースなどであるとおり技術進歩は亀以下です。
何か画期的な量子技術が発明されれば別でしょうけどw
105 :
Kひげ :2006/12/11(月) 09:47:40 ID:3s3WP2Ow
↑ これはあくまで僕の勝手な思い込みですが、量子チューリングマシンは 並列コンピューターで、その並列度が量子的に増える(ほぼ無限に) ワンクロックで、回答が出る(無限数の回答、のなかの一つを抽出) な〜〜んて考えていたんですが。
すでにおまえの脳も超並列だが。 実際1クロックで答えだしてる。出せる部分ではな。
107 :
Kひげ :2006/12/11(月) 11:11:00 ID:3s3WP2Ow
↑ もっと詳しく、語ってチョウ。
>107
>チューリングマシン
まずは用語を調べてから発言したほうがいい。
>並列コンピューター
量子技術と並列技術は別ものだろ。
量子状態を扱うのとデジタル技術を使う差をまず把握したほうがいい
量子操作でアナログ的?計算を行っても入出力の際にデジタル変換
しなければいけない事実を把握しておいたほうがいい。
媒体に記録するにも量子のままでは記録できない。
>>107 連想記憶のアルゴリズムを使えば古典的コンピュータでも
1クロックで答えは出せる。
109 :
78 :2006/12/11(月) 13:30:03 ID:I2l0F5JQ
遅レスすまん。
>>79 広義のマルチチップモジュールなら、昔、日本がすごいの作りましたよね。
富士通とか、スーパーコン用に。(俺は計算機屋なので、マスコミ製の
スパコンという言葉は嫌いです。トーシロの造語は認めません)
セラミックをごっそり重ねてまとめて接触液冷とか。
>>108 ちょっと言いすぎ。連想記憶にアルゴリズムもへったくれもないよ。
あれはメカニズム。それに、解を得るためには「すでに解を知っている」
必要がある。言ってることわかるか?「やりかた」を知ってるだけじゃ
ダメなんだ。最初から「最終的回答」を知らないと、そういうことには
ならない。ま、外部アドレシングを抽象化すりゃ、1クロックアクセス
なんてギャグだがね。
だいたい、理論的に、パラメータ付き問題では、そういうことはあり得ない。
110 :
Kひげ :2006/12/11(月) 17:01:32 ID:3s3WP2Ow
111 :
Kひげ :2006/12/11(月) 17:18:48 ID:3s3WP2Ow
今クロックの限界が見えて、次はマルチコアで次は並列、超並列、光コンピュータ の次あたりに量子コンピュータが待ってるのかな〜〜、と言うだけで 今すぐどーこうなると言うもんでもない、と思いますよ。
そんな事言ってると 越えられない壁を貼られるぞ
114 :
113 :2006/12/11(月) 23:25:05 ID:8FW7iXqR
>量子計算機が古典計算機より強力である証拠となりえる。 >しかし、まだ証明されたわけではないので、量子計算機が >古典計算機より強力であるという根拠はまだない。 >また両問題はNP完全問題ではないだろうと考えられている。 巡回セールスマン問題であれば古典的コンピュータでも特殊なアルゴリズム でほぼ克服している。by放送大学
115 :
オーバーテクナナシー :2006/12/13(水) 18:03:01 ID:02IJnKVj
ところで、3年4倍速(ムーア則)はどうなった?
116 :
Kひげ :2006/12/13(水) 19:19:50 ID:l6TOqk6R
ここ当分は3年4倍マルチコア、でね〜〜の。30個ぐらいまで言ったところで また考えるんでは。 << インテルしだい。 >>
117 :
Kひげ :2006/12/13(水) 19:25:45 ID:l6TOqk6R
30個までは3・3・2くらいで8年持つ。
118 :
Kひげ :2006/12/13(水) 19:55:32 ID:l6TOqk6R
あまり知識があって書いてるわけでもない、I/Oの10月号に CPUの未来が書いてあった、量子コンピュータもちょこっと 書いてあった。 CELL(PS3)が9コアで128Bitバス、なんてのも書いてあった。
119 :
Kひげ :2006/12/13(水) 20:47:36 ID:l6TOqk6R
すみません、も〜一回読み直したら、CELLのバスは768bitでした 恐ろしいでかさ。
>>115 性能の基準(価値観)は常に一定じゃない。
最近の基準は浮動小数点演算と並列化の性能が良いものが優れた価値とされている
>>119 バスといってもいろいろあるし単純に考えられない、キャッシュメモリのバス
メモリのバス、内部命令のフェッチ時点のバスサイズ、ビット幅においては
レジスタのサイズや命令語のサイズなども各々にある。
幅が広いから幅の倍率だけ性能が上がるものでもなく。
並列化が並列だから並列の数だけ性能が上がるものでもない。
Kひげは無駄レスを垂れ流す前に 考えをテキストファイルにまとめてレポートにし、 翌日以降の頭が冷えた状態で投稿すべきだ。
122 :
Kひげ :2006/12/18(月) 19:37:36 ID:jqE452dc
すみません、また無駄レスかもしれませんが、今、クロックアップが行きずまって、マルチコアに入っているけど マルチコアの将来性は??どんなものでしょう、マルチコアの欠点は、マルチコアの次は何がくるか、???。 また無駄レスと怒られるかな〜〜。
結局クロックアップの限界は何処なんでしょう?
>>122 暫くはコアの数を競うんだろう、2つ4つじゃ少なすぎる。
桁が5桁超えたら、将来性はどうなるの?と聞いて見ようw
>123
金属の導体を使っているからこそ速度が遅い訳で、
電磁波の類で量産&超集積の回路が作れれば周波数などまだまだ
上がれる。
集積と量産が困難だからこそ並列化技術なんだろう。
性能以前にソフトウエア技術が進化しなければ効果の無い世界だろうな。
現在のソフトウエアは大容量のメモリを使う方向へ進化している為に
メモリの性能が今後重要になるだろう。
インテルが計画しているすべてのバスをパラレルからシリアルへの
方向性でDRAMがいまだパラレルのバスを維持している。
これは今後の技術変化において非常に問題になる点だろう。
パラレルの問題はデータの同時伝送というのが不可能な域に
近づいている。導体配線を使っている限りパラレルはもう限界
なんだよな。
ええと、で、シリコンベースの技術でどのくらいクロックが出ますか?
>>124 ラムバス社のXDR-DRAMはいかがでしょうか、ダンナ。
FB-DIMMも仕組みの上ではシリアルに近いと言えそう。
知識水準から学生かとおもたが、 Kひげは意外とオサーンだとおもう。 実はジイサンな気もする。
128 :
78 :2006/12/20(水) 03:16:37 ID:uTMxUa80
>>128 たとえば、俺はジイサン。Kひげじゃないがな。もう新しい発想は
できない。若人に任せるわけさ。
>>126 問題はな、CELL読み出し速度がほとんど向上してないってことなんだよ。
DDR,2,3,結局、バースト読み出し粒度が荒くなるだけで、ランダムアクセス
速度は何も上がっていないよ。バースト読み出しがCPUのキャッシュライン長を
越えてしまったら意味ない。
>>126 FB−DIMMはラムバスの特許に触れるためにインテルが不採用な方向に
向かっているんじゃないか?
ラムバスにもすこしは儲けさせてやれよ。
特許料をクロスライセンスだけで一銭も払わない大手には当然に義務だろう。
>>128 だからこそマルチコア、マルチCPUな方向へ向かっているんだろうな。
まあ将来のメモリバスはTCP/IP類似のパケットバスになるだろう。漏れの予言。 並列化の流れは止めることはできないだろう。 周波数が上がれば性能が上がるという神話は、周波数に比例して性能が 上がった場合の話であって現状では周波数が上がっても性能は上がらないという 問題にぶつかっている。 ベースになる入出力待ちが高速化しなければ早くならないのは事実で。 DRAMベースのメモリだけではなくHDDやネットワーク速度にも依存 している。 狭い意味での特定のループ処理では周波数の威力は絶大であるが入出力 が進歩しなければ全体としての性能は頭打ちである。 周波数の信仰もいいが、その発熱はいい加減にしてほしい
>>129 インテルのロードマップに影響(遅れ)は生じているようだけど
不採用には至っていないようです。
ってか、ラムバス社のパテントはPS2、PS3で使われているから
少しどころではなく儲けているはず。
>>130 実は、インテルとマイクロソフトが共同してパソコンの内部バスを
全てIEEE1394にしてしまおうって計画が有るには有りました。
(IEEE1394bは規格上、バス速度の上限を設けないはずだった。)
が、その計画の何歩も手前の段階で「市場」からNOを突きつけられて
頓挫してしまっています。
少なくともWindowsの場合、遅い原因の一つに互換性を含めた
いわゆるレガシーデバイスの問題が有るため、今後レガシーを
捨てられるかに掛かっていると言っても良いと思います。
そこでAppleですよ
まずはCPU間通信が必要という感じ? OSのプロセス間通信つまり別のCPUとの通信、 複数CPUの同期を取るには物理メモリを通じて通信していた。 なのでメモリが別系統なシステムだとその同期を取るのがかなり時間がかかる マルチコアCPUやマルチCPUでも基本は同じメモリに繋がる構成だから メモリの物理帯域がCPUの数だけ同時に使われ、帯域に問題が生じるだろうね 4つ程度では問題はでにくいだろうけどCPUコアの数が10、100となると 激しく問題化するだろうな。 なので専用のプログラム通信で使われるプロセス間共有メモリは外せない 訳だからローカルバスまで落ちた一般の通信カード(NIC)では遅すぎる からCPU間専用通信BUSというのが将来必要になっているような 気がするな。スパコンやメインフレームだともう実装しているのかな
134 :
131 :2006/12/22(金) 16:03:25 ID:ZTbkEC56
>>132 残念ながら、その計画の出ばなをくじいたのがほかならぬAppleだったり。
IEEE1394(正確にはfirewire)を開発したのがAppleなんだけど
1ポート辺り1$のパテント料を求めたのをメーカーが嫌って
採用が進まなかったんです。
(そして対抗手段としてUSB2.0が出てきている。)
>>133 AMDを初め数多くの企業が賛同しているHyperTransportで良いのでは。
135 :
78 :2006/12/23(土) 17:05:22 ID:/7OgidGD
>>133 >>134 ですからね、狭義のCPU間通信で一番問題になるのは、密結合共有
メモリ型だとバス・アービトレーションとキャッシュコヒーレンシの
維持なわけですわ。CPUが4だ8だ言ってるうちはいいんだよね。
PEが100とかの桁を越えるとそんなんじゃ話になるわけがなくて、
クラスタ間の接続にどうしても疎結合な部分が出てくるわけで、
そりゃfirewireもUSB2.0もこういった分野の基礎であったINMOSの
TransputerやnCUBEの実装チップより遥かに優れているとはいえ、
現状では「要求より桁違いに低性能で話にならない」わけです。
茶の間にPC据えてる我々の世界ではもうしばらくのんびりして
いられますが、node数が10^4行っちゃってるHPCの世界じゃシャレに
なりません。たとえば、8、あるいは16nodeごとにSMPで束ねて、
それを疎結合で繋ごうと考えてみましょう。10Gbps+で1K+portsを
フルスピードスイッチできるハードウェアなど、この世に存在しません。
バックプレーンに超光速技術が必要かも。(´・ω・`)
136 :
オーバーテクナナシー :2006/12/26(火) 01:18:16 ID:97TfRR4q
未来板っぽく重力波伝達技術
138 :
135 :2006/12/27(水) 00:05:47 ID:7pMm1vPK
>>136 できませぬ。だってそんなの発見されてないから。
(´・ω・`)←そんなのないからこうなの。この世に存在しないというか、
より厳密に言うと未だ発見されてません。もしかすると未来永劫発見
されないかもしれない。
>>137 重力波の伝達速度は光速であると推定されています。
何をどうやってんのか知らないけど、10GbEってのはあるでしょ。
あれって単波長?それとも波長多重技術?単なるネットワーク技術としては
いいかもしれないけど、近未来のHPCのクラスタ間接続としてはすでに
帯域不足してますよね。
最近のHPCの速度稼ぎはね、ソフト屋さんが頑張ってるわけ。
CPUの速度ってのは、半導体物性屋+ロジック屋vsソフト屋の
綱引きで向上してきてるんです。
ロジック屋が突出した時代があってね、それがRISCの世代。利点は
確かにあったんだけどね。かと言って、i386の呪縛から未だ逃れられ
ないIA32やエセVLIWのIA64にも賛同できないし、どうしようね?
実は、現在は主メモリの遅さをどうすべきかの方が問題でね、
そっちの方がかなりマズい感じ。
なかなか来ないねMRAMの時代。SRAMより早いってのがいい。
LRAMもあるの?
>>139 作り方にもよるが実質SRAMとMRAMは同じ速度だろ。
メモリと演算装置と通信装置を引っ付けて互いに通信し合う。 よし
>>142 そのような情報処理も可能です。現在のCPUは手順型のチューリングマシンで
論理を手順という順番に置き換えて科学的に処理するものです。
情報処理の方法はニューラルネットワーク、ファジィ技術、データベース技術
などで行われるネットワークという土台のベースで情報処理を行うものも
あり、それらは繋がりと記憶、相互通信のみで情報処理を行うものです。
これには手順というものは存在せずとも情報処理ができる点がチューリング型
常識的なコンピュータといわれるものとは概念が違う情報処理です。
インターネットそのものも巨大な並列型情報処理装置とみなせるでしょう。
ただし科学的ではなく、オカルト的(直感的)な処理要素とみなされます。
144 :
135 :2007/01/03(水) 13:09:10 ID:ya/JRuRo
>>142 メモリと演算装置をくっつけるというのはもうあるでしょう。
EDRAMって言ったっけ?Embedded DRAM。DRAM cellの基本構造自体は
他と違いありません。それ言っちゃうと、SDRAMもDDR3もcell〜sense ampは
あまり変わらん。
EDRAMの方は同一ダイの上に載ってるので例えば256bit幅接続とか簡単に
できるし、チップ外に信号を引き出す必要がないので電圧のスイング幅が
非常に小さい(ロジックチップの外部仕様で規定される1と0の電圧スイング
と、同一ダイ内のゲート間でやりとりされる電圧スイングは全然違います)。
DDRの方は、DDR、2、3と進むに従ってバースト読み出し粒度が倍々ゲームで
増えてるだけで、ランダムアクセス速度(tCAS)はそれほど画期的に向上
してるわけじゃありません。汎用には向かない。組み込み用途向け。
>>143 わかったようなわかんないような、やっぱりわかりません。俺、頭悪いかも。
俺は元々ソフトアーキテクチャ屋(専門は超並列)なんですが、ニューラル
ってのはわかるんですよ、チューリングどうとか言うより、もっと簡単に
言うと非ノイマン型アーキテクチャとして。あれはミクロな視点ではっきり
言ってしまうと、ディジタル的なデータフローアーキテクチャの発展形
だと思います。その出自がどうだろうとね。元のデータフローはノード
のfire条件がはっきりしてるんだけど、ニューラルのノードは重み付きで
まったりぐったり(ぉぃ)働くんですよね。(違ったら訂正を請う)
データベース技術ってネットワークが土台なの?違うでしょ。そんなものは
土台でも前提でもない。狭義のデータベースなら問い合わせに対するレコード
の集合体があるだけだし、広義のデータベースなら概念をブチ込んだら
少なくとも関数の範疇には収まらない「何か」を通じて概念が出てくるだけですよ。
その「何か」はネットワークを土台にしていて「も」いいけど、それ「が」
土台であるわけではありません。データベースってのは、「目的はある、
しかし手段は問わない」。そういうもんです。trivial problem向けの
実験的非ノイマンデータベースマシンは何十年も前から試作されています。
145 :
143 :2007/01/09(火) 12:59:50 ID:Ndddye9K
>>144 メタ情報系の非ノイマン型と、非メタ系の非ノイマン型は理解できますか?
単にニューラルネットワークのように因果の抽象層までも非メタの情報として
蓄積して連鎖し情報が伝播する流れ(非ノイマン)と、抽象層がメタ情報の
ままデータベースに記録される人為的な要素のある非ノイマンの考え方が
あると思われます。後者はエキスパートシステムに類似しています。
情報は論理手順という考え方ではなく、すべての場合別けを直感(超パラレル)
で処理する非手順という手法があると思われます。場合別けは指数的に増大
して無意味にかんじるかもしれませんが、これは答えが与えられるので
自然淘汰的に生き残れる要素=答えが極少数なので因果が記録されることで
短い時間で答えの経路が特定されます。ここには論理ではないので間違えや
誤差、抽象的な要素やあいまい的な要素が残りますが確率的に99%とか
実用上は問題のない結果が得られる精度ならば従来の論理手順が持つ入力の
デジタル的要素(合理性)により情報が劣化する精度と大差がないと
思います。ニューラルネットワークの逆誤差伝播のような基本アルゴリズム
ばかりを教科書的に読んでこれしかないように勘違いしている人がいますが
いろいろな抽象情報処理やメタとの中間のようなモデルも考えることは
可能でしょう。データベースにしても現状のものばかりをみて基本的な
概念を無視し表面だけの利用で非ノイマン化するのは無理だと思います。
SFで有名なスタートレックのコンピュータの仕組み、これはあまり解説が
ないですが現実的だと思うし論理的にも矛盾しない仕組みで非ノイマン式を
実現している例?(SF映像創造物)でしょうね。
スタートレックのコンピュータには周波数という概念はありません。
また記憶装置のような構造も存在しません。
以上落書きでしたw
うむ。 小難しい単語は俺には分からないので、 小難しい専門用語を並べて悦に入ってんじゃねーよと 突っ込みを入れておこう。
147 :
オーバーテクナナシー :2007/01/09(火) 22:36:58 ID:p7+yF9DJ
>スタートレックのコンピュータには周波数という概念はありません。 >また記憶装置のような構造も存在しません。 スタートレックが書かれた頃って、SF作家でもコンピュータ=人工頭脳って 漠然としたイメージしか持っていなかったから、単にCPUとかメモリという 言葉を知らなかっただけだよ。
スタトレだとTNG以降は普通のコンピュータを意識した設計になってるみたいだが。 並列化のお化けみたいな代物なので、どこが壞れるとクリティカルかというのはあんまなさげだが。
もし未来に100THzくらいのCPUができたとしてなにができるの? wktkできるようなことできる?
そのCPUの90%以上を使用する、MSのWindowsスパーデラックスが動作します。 もちろん、1CPUにつき1OSをご購入ください。
>>149 システムとして動かないものは量子コンピュータと同じで絵に描いた餅。
回路数が増えれば回路数に反比例して動作周波数は下がるだろう。
量子回路でもコンピュータというアプリケーションを実装した回路は
存在しないし設計すらされてもいない、論理的に可能だというレベルで
仮説の域にある。
>>145 >メタ情報系の非ノイマン型と、非メタ系の非ノイマン型
前者がデータフロー型のコンピュータで量産タイプのプロセッサも存在する。
後者は試作タイプのLSIでニューラルネットワークを大規模に実装した
例はあるが量産しても応用が不可能だと判断された。
>後者はエキスパートシステムに類似しています。
誇張解釈すればgoogleの曖昧検索もエキスパートシステムの近似だよな。
これからはそれ以前の発言にあるように並列型コアとデータフロー型の
プロセッサーを組み合わせたコンピュータが普及するだろうから、周波数は
SRAMの動作周波数まで落ちてゆくのが必然じゃないかな。
>>150 >もし未来に100THzくらいのCPUができたとしてなにができるの?
情報処理ではデータを入出力しなければならない、データは入力で分析され
加工され記録される。これに見合った入出力ができなければ空回りする
情報処理のタイプによるだろうが単に数を数える空ループなら100THz
でも実現は不可能ではないだろう、しかしその意味があるかは別で
難解な情報処理をさせるにはそれなりの負雑な情報を蓄えるメモリが必要
となり主記憶がその速度に追いつかない限り主記憶の速度が性能の指標で
周波数は瞬間最大風速であって意味などなくなる。(平均化される)
ま、量子力学が理解できないからって責められるのは酷だと思うがね 100THzのCPU作るより量子コンピュータのほうが遥かに簡単だよ
>>153 釣りかな
説明もできないものを理解しているといえるんだろうか
メモリが遅くてもウェイトをかければいいのですよ。 EPSONの98互換機のようにゲヒャゲヒャ
156 :
オーバーテクナナシー :2007/01/21(日) 00:30:27 ID:6j3SyWB+
なんで量子力学厨はどこにでも沸いてくるの?
( ゜Д゜)奪おー
158 :
144 :2007/01/22(月) 23:12:56 ID:3AYfDKXq
>>156 一応、量子力学は俺も学部で習ったんすけどねぇ、サッパリわかりませんでした。
半導体工学とか、レーザー工学とかいう科目も習いましたよ。習ったけど…
_, ._
(;゚ Д゚)ハァ?? ……… 前略母上様、物理学は私には難しすぎたようです。
>>152 雑談なんですが(^^;;、その量産タイプのデータフローチップ多分知ってます。
大昔、研究室の先輩が研究でそれ使った回路組んでました。NECの奴でしょ?
データブックも一通り目を通しました。当然中身忘れちゃいましたけど。
確か、無数のノードを配置する代わりにノードトークンをリング状の
フローの中を回すアーキテクチャだったはずです。
後者の例の方は私はよく知りません。
エキスパートシステムは政府がICOTに金出してた頃に盛んに研究されてましたね。
医療とか、かなりクリティカルな分野にも応用しようと試みられてたけど、
一定の成果はあったものの、人はまだ機械より賢いということがわかっただけでした。
特定のことの「速度」だけなら昔から機械の方がずっと速いんです。
しかし、人間の恐ろしい所は「自分が何を知っているか」をちゃんと説明
できないままその知識を使えてしまう所だと思うのです。チェスは今時
機械の方が強いですが、駒を「張る」ことができる将棋の世界で機械が
チャンピオンになるのは当分先でしょう。組み合わせの数が桁違いです。
159 :
オーバーテクナナシー :2007/01/22(月) 23:59:08 ID:wdG6L/2e
>雑談なんですが(^^;;、その量産タイプのデータフローチップ多分知ってます。 有名すぎて。しらないほうがDQN
>>159 俺の世代だとおっしゃる通りなんすが、今時の現役の方々は
知らないんじゃ?^^;; 今の世代で現物チップ見た人ってまだいるんかね。
まあ、俺はたまたま知っててもDQNかもしれませんが、知らなかったと
言ってもDQNは言い過ぎでは。
俺、ジジぃ世代だからねぇ、Kひげさんとどっちがジジィかね。
大昔にね、ZilogにZ8000、NSに32032のアーキテクチャブック
請求したさ。葉書一枚でスゲェ量の資料国際便で届いた。あっとビックリ。
その後、NECにVR4000の資料請求したさ。そしてまた驚いた。渋いの
なんの。根堀り葉彫り聞きたがる。テメぇが造ったアーキテクチャでも
ないくせに。俺も昔は若かったし、相当カチンと来て、「うるせぇ、
上司出せ!」を繰り返したあげく、相当上まで行ってやっとまともな
会話のできる人が出てきて、「御大(帝大教授)宛てに送ってくれ」と
いうことで話が丸く収まった。実際、あの技術資料にはエラく世話に
なった。NECには感謝してる。
POWERアーキテクチャの英文データブックなんかそのへんの本屋で
売ってたよ、数百円で。請求するまでもない。
161 :
オーバーテクナナシー :2007/01/25(木) 00:09:44 ID:fwszTM2p
つりなの?
163 :
HAL :2007/01/28(日) 14:50:19 ID:YF3MomgE
りつこ先生!
釣られたかも。(反省猿)
>>161 成仏を祈ってくださいませ。
将来は電気じゃなくて光だろう。 SFの話では光を使ったデバイスが多く存在する。 論理的な要素を処理する考え方の延長であれば、光であってもデジタルと ノイマン型の要素は切り離せないだろう。 非論理的な信号、抽象データを扱い手順なき仕組みならばニューラルネット ワークのような物がその道にあるだろう。 どちらも絶対的なものが得意か抽象的なものが得意かという話で利用形態 が変わってくるはずなので、何をするかで両方の利点を使うような方向が 将来的にはありえそうな気がする。 絶対的な物であれば、究極に至るまで情報の識別をするためのストローブ 情報は必須であり、それはクロックなどの要素が捨てられないという意味と 思う。情報の伝わる速度と変化する速度には限界があるので、技術も限界まで 可能性はあるだろう、しかし極限の限界に近づけば近づくほど技術的に 困難になるのではないだろうか? つまり周波数が上がるのが難しくなりはじめた現状があり、周波数限界へ 進む速度に減速がかかっていると解釈するのが妥当だと思う。 どこで収束するかは、その時代がくるまでは判断できないのではないだろうか? 最近始まった並列化の仕組みはネットワークという形で繋がれば無限に 近い接続形態の可能性がある。こちらのほうが有用な気がする。 今後はエネルギー(物理的な要素)が情報を処理する性能の 変換効率という点が指数として重要になると勝手に思うわけだが。。。。
>>165 そんな旧世代のアーキティクチャー語られてもなぁ・・・
167 :
オーバーテクナナシー :2007/02/13(火) 03:13:55 ID:2Q3G0bW+
そうだな
>>166 なにも語れないのより、まともそうに見えるが。
少しは語れよw
>>169 そうなんだが。俺は166じゃないが、散々このスレで「今の技術」を
語ってきたんで、ブレークスルーがほしいかな、と。
で、だ。
>>166 それを旧世代と称するそこのお方、是非ご教授お願いしたい。
俺の修論のテーマは超並列アーキテクチャだったから。
computing nodesが1K超えたらどうしたらいいと思う?
遊び人の玲さん=166
172 :
170 :2007/02/14(水) 03:01:51 ID:pOy4vHsa
で、どうしたらいい?とマジに考えてしまったのが俺の間違いの はじまりで、自律分散の世界のハマり込んでD取得退学してしまったわけ。 Academyの世界から離れてしまった今でも、面白いと思うぜぇ、 securityとcontract modelをよく考えればなんとかなる。 末端nodeの方はVM化の環境が整いつつあるから、うまくsand box 作れば安全にできるだろ。 ビジネスとして成り立つかどうかは、また話は別だ。
>>170 >ブレークスルーがほしいかな、と。
ハードウエア面からみたそれは無理じゃないかな
遅れているのはソフトウエア以上の上位の概念じゃないだろうか
一般的な情報処理はノイマン式といわれる手順で情報の破片を組み立て
情報交換する方法であるだろう、
この部分は低次元な情報処理では有効的に利用しやすい、しかし
多次元な情報処理では情報が抽象化され、入力情報も抽象データだし
途中の情報処理も抽象的なもの、さらに出力も抽象的なものが増えてきて
いないだろうか
絶対的論理の組み立てで作り上げられた計算処理では上位の
抽象データを扱うほど複雑な計算が必要になると思う、
いまのハードウエアは正確に緻密に細かい作業を繰り返しすることに特化
してはないだろうか、これとは別の情報処理体系を考えれば
ネットワーク(因果関係による情報処理)などを物理的に並列作業する
ような物がある。
これに必要なものは手順を繰り返すのではなく、すべての演算や情報が並列化
されている。形、並列の極みという方向が必要かもしれない。
因果関係をネットワークの接続(ハードウエア的には配線)ですべての組み合わせ
を実現するものは難しいだろうけど、別次元の尺度でなければ破壊的飛躍などは
望めないのではないか?
具体的例が分からないと思うけど、google自体をLSI化したような概念です。
検索ではなく、情報の連鎖を相互接続するようなものです。
174 :
オーバーテクナナシー :2007/02/27(火) 15:55:34 ID:HOnw4ebW
光CPUは数年で実用化できるとインテルが言ってた 軽く50倍の速度になるらしい
中央処理演算装置って概念が、そもそもダメダメ
176 :
オーバーテクナナシー :2007/02/28(水) 04:11:13 ID:giw2q1k0
DNAコンピュータてどうよ?
178 :
オーバーテクナナシー :2007/02/28(水) 09:15:06 ID:giw2q1k0
>>178 実用化されているといえば実用化されている。完全なものでもないけど。
180 :
オーバーテクナナシー :2007/02/28(水) 11:36:51 ID:giw2q1k0
>>179 で、どうなんでしょう、凄い性能だって耳にしましたが。実際どんな程度なんですか? 普通のコンピュータと比較して?
ある方面にはデジタルコンピュータを凌駕する計算速度を発揮するけど、一般的なコンピュータと比較するような代物ではない。
182 :
オーバーテクナナシー :2007/02/28(水) 14:38:44 ID:giw2q1k0
>>181 更なる進化に期待て感じですか、 パソコンもほんの20年位までは
8〜16bit位しかなかったからね。それ考えたら、
将来性があると見ていいじゃないかな。
進化はするだろうけど、一般向けコンピュータとしては根本的に不向きだと思う。
あと周波数と言う概念がないからこのスレ的にどうかとも思うけどね。 基本的に反応速度であって、反応周期と言うわけではないから。
185 :
オーバーテクナナシー :2007/02/28(水) 19:32:21 ID:giw2q1k0
量子コンピュータもなんだけど、量的に多い計算を量的に多い状態を取れる 物理(化学)現象でどーにかしようって発想のコンピュータだから 単純計算には強い半面、複雑な計算には不向きって欠点が有る。 しかも計算した結果も大量に出てくるから、その中から正解を探す って手間が掛かってしまい、その手間の解決が出来るかどうか・・・ 最近じゃ細菌のDNAに手を加えて微細配線させるなんて技術が 開発中らしいから、そっちの意味でのDNA利用の方が身近になる可能性が高そう。
論理手順が必要なものは並列化するのは限界があるのは昔から分かり
きっている話だよなぁ。
量子とかDNAとかニューロコンピュータとか原理や仕組みが全然違い
現在のコンピュータとは異次元の存在であるのは明白で比較している
DQN君とかが多いが明らかに無意味だろう。
基本的にチューリングマシン(ノイマン型)という数学モデルを
実行するのが現状の論理型のコンピュータであり、いま例に示した
ものが論理型ではなく、単なるデータ加工とかネットワーク型という
分野のもの。
手順が必要だからこそクロックという1つの手順となる単位が
必要になってきたわけで非手順なものは非論理に値する情報処理しか
できない。
論理型コンピュータの利点は、仕組みを仕組みどおり組み立てるという
ことが最大の利点であり特徴でもある、かつ最悪の特徴でもある。
この意味がわかっとらんからこそ、別なコンピュータと名前がつくもの
が名前だけ一人歩きしている訳。
アナログは超並列や、計算をせず結果を出すような類のものは
現状のコンピュータとは名前だけ似ていて完全に違うジャンルなもの。
OSやソフトウエアという概念も互換ということは100%ありえない。
デジタルとノイマン型コンピュータの概念は合理的なものを追求した
形であり、非合理な要素は一切ない数学モデルである。
数値という概念で使っても非論理的なものはデジタルではなく
アナログであり、論理も計れない抽象モデルである。
得意分野が180度違う世界なので
>>181 の言うとおり別な代物だろう。
果たして本当に手順が必要なのか? というパラダイムシフトが必要なようだね。 君達には
189 :
オーバーテクナナシー :2007/03/01(木) 02:19:50 ID:4kaTcclv
>>188 パラダイムシフトがほしいと思うのは分かる、しかし貴方のは妄想レベルにも
達していない空想というやつだろう。からっぽ。
分かってないね。 手続き型は、言ってみれば無限級数を計算してるようなもん。 最初っから分かってる答えを、なんで無限に計算しなきゃならんの。
>>191 分かっているのは答えが存在していることで、答えそのものが分かってるわけじゃないし。
チューリングマシンで答えが最初からわかってるのであれば、計算停止問題は過ちだ罠。
>>191 「無限級数」という概念を「手続き」に組み込んでやれば、ちゃんと計算できるよ?
テストと実際の計算をごっちゃにしてはいけない。
わかってねえのは、おまいらだろ。 計算ってえのは、計算内容を入力してる先から既に答えがあるんだよ。 いい例が、計算尺 入力値に同期して出力値も既に決定してる。 いちいち手順を踏んで計算させる方法は、あくまでも便宜上の事であって、 必要条件ではない。 考える事を止めてしまっては、今以上の発展は望めないよ。
>>193 計算できると勘違いするのはいいが、できないものをできないと
いえないのが学生の無知の限界だろう。
>>194 計算が一回こっきりの単純な計算ならば、そうかも知れないが
一般化された途端に計算尺では無限回の操作が必要になるよ。
無限に計算しないと出てこない結果なんていくらでも有るしね。
まぁなんだπ(言うまでもなく円周率)を有限の手順で
計算する方法でも見つけてから戯言言ってくれ。w
>>196 おまいはデジタル思考から少しは離れたらどうだ?
πは瞬間で解が求まる代表例だろ。
>>197 学校卒業してきたの?ゆとり教育の影響があるのか
手続き型の計算方法しか習ってないから、しゃあないか。
>>197 素晴らしい、瞬間で求まる方法とやらを書いてくれ。
超越数を瞬間で計算できる素晴らしいアルゴリズムの誕生だ!
アルゴリズムw そんな事言ってるから、わからねえんだよw
>>201 具体的なことを全く書けない妄想は飽きました。
貴方は妄想世界で過ごして現実社会には出てこないで下さい。
203 :
オーバーテクナナシー :2007/03/07(水) 15:20:16 ID:xJKVoqA8
いや、何らかの固有値を持っている値の計算て、一瞬で済むのは誰でも知っていると思った。 ただし、アナログコンピュータでの話。
>>204 計算尺でもアナログコンピュータでも、一瞬でなんて終わらないよ。
計算結果を数値で示す必要が有るのであれば、何処かで必ずADコンバージョンが必要。
そのコンバータを用意するって行為自体が計算、手順、アルゴリズムそのものであり
チューリングマシンにおけるテープそのものなんだよ。
メモリの無い計算尺や結果をアナログのまま出力するアナログコンピュータで
固有値をどうやって表すのか答えられたら「一瞬で済む」ってのを
信じてあげてもいいけどね。w
>>205 アルゴリズムが無い物とは単一アルゴリズムを示すだろう。
どのようにやっても分解できない変換要素であり、他の手法で構築されて
いない物をいう。
一般にアルゴリズムというのは、
>計算や問題を解決するための手順、方式、手続きを意味する。
>大辞林 第二版 (三省堂)
これは辞書のコピーペーストであるそれ以外を意味したいのなら
貴方の定義を示すべきである。
例えば10進数の整数で数桁の足し算を考えた場合
計算尺の場合は計算ではなく変換である。
コンピューターの場合は変換ではなくカウンターやフリップフロップなど
を使った手順を必要な仕組みが存在する。同じ足し算でもコンピュータ
ではアルゴリズムがあり、計算尺のモデルではアルゴリズムは無いと
判断できる。後者は情報処理の一部を放棄しているので無いということになる。
しかし仕組みは存在する。
>>204 アナログコンピュータでもアナログの電流や電圧による増幅作用や合成
などの作用からアルゴリズムは成立する。
しかし入力に対する結果が確実に成立しないしないようなものは
アルゴリズムとして成立しない。その点を含まればアナログ
コンピュータの一部はアルゴリズムではなくなる。
手順があっても自然淘汰にて決定するようなモデルはアルゴリズム
とはいえない。なぜならば仕組みは確率的に存在することだから。
ここの住民て、電気から離れられないの?
>>207 実現可能域は電気だろうからな。
確かに原子単位で操作する技術などがあるが、量産できない。
品質を保てない、高い集積度になるほど指数的に実現不可能
現状の半導体工場がどれだけの金が先行投資されていると思う?
互換性というものが技術より必須条件なんだよなぁ。わかる?
町工場で新技術が生まれてそれが全てを塗り替えるなんて神話を
信じているのかな?2番目、3番目の技術は優秀でも消えてなくなった
過去を学ぼうよ。
>>208 互換性だってさ。
あんたここの板にふさわしく無いからつまらん。
>>206 は? 計算尺にアルゴリズムはない? ふざけてるのか??
計算するのに「計算したい数値を入力」し「尺を動かす」って
アルゴリズムが有るじゃないか。
と言うか関数に対し数値を入力するってのと同じだって分からないか?
で、アルゴリズムの定義をお求めのようだけど、辞書のそれで
別に構わないよ、計算するって行為自体がアルゴリズムなんだから。
>なぜならば仕組みは確率的に存在することだから。
確率の計算ができないとでも思ってるなら間違いだよ。
と言うか、「数値」を使うのであれば如何なるアルゴリズムであれ
ノイマン型コンピュータで扱うことが可能。
>>207-209 電気でも電子でも光子でも何か未知の物理現象を基本原理とするコンピュータでも
全部同じ、計算するって行為を扱うのであれば、それはチューリングマシンだし
ノイマン型コンピュータで扱うことが可能。
現に量子コンピュータのエミュレータはWindowsアプリとしても存在しているし
チューリングマシンにおける計算の万能性は数学的に証明されていて
覆そうと思ったら数学自体を覆す必要が出てくる。
計算しない、数値で結果を表せないで済むコンピュータなんてのを
作るのならまだしも、計算するのであれば数学の万能性から逃れる手はない。
万能性もいいけど、万能だという事と、適切だという事は異なる用件だという事は忘れないように。 つうか、計算式を与える作業までを含めてアルゴリズムという広義な使い方されちゃあ、アルゴリズムの無い物は無いってことになっちまうw ま、そういう広義な意味でのアルゴリズムとチューリングマシンにはもう何の関係も見出せないな。
>>212 あのな、そこまで話を持っていくと観測論だとか誤差論なんて世界まで
広げないと収集できなくなるぞ、そこまで行くのがお望みなのかな?
>計算式を与える作業までを含めてアルゴリズムという広義な使い方されちゃあ
簡単な四則演算で構わないから、アルゴリズムの実例書いてみてくれないか。
但し数字を使わないでな、個数を数えるなんて単純行為ですら
ペアノの定理ってアルゴリズミカルな行為なんだけどな。
>>213 アルゴリズムという一辺倒な方法論だけですべてを表記するようなヘンタイにしか理解されないんじゃね?
オマイの言ってるのは、測定方法であって、計算とは無関係の部分。
>>210 人間を計算尺の1つと混同しているとは頭悪すぎる
>確率の計算ができないとでも思ってるなら間違いだよ。 摸倣を同じだと勘違いしているのは物事の区別すらできないということだなぁw
>ID:Y9ojOvZr 君は自然淘汰という言葉を知っておりますか?w まあ煽っても仕方が無いか、、、理解できねーんだろうからw
>>214 あのな、数を数えるって行為は自然数論や整数論が成立っているって
前提で行ってるよな、計算するってのも同じで加法定理や交換則などが
自然数や整数の体系内で成立っているって前提で行っている。
>>215 人間の脳だよな?
脳がどのような仕組みで思考したり計算しているのかは知らん。
が、人間の脳とコンピュータや計算尺が同じだとも言ってない。
>>216 逆に聞くが模倣でない計算って何だ?
>>217 進化論における自然淘汰か? 計算と何の関係が?
計算できない例のつもりか? モデル化して進化論を計算するって
手法も確立されてますが何か。
>>218 >計算できない例のつもりか? モデル化して進化論を計算するって
>手法も確立されてますが何か。
近似もしてないモデル化など意味不明だろw
確立されても現実と大きく違っているのが理解できねーようだなw
おまえが言っているのは例えば経済をモデル化して起こる現象を全て予知
できるという説明に類似している。
全然できねーよ。大雑把予測するなんて計算する以前の問題なのがわからん
ようだなw
>>216 >逆に聞くが模倣でない計算って何だ?
お前が摸倣していると表現しているものが滑稽という形なんだ
つまり似ていると主張しているが全然似てない。
先行者のようなロボットを作ってスゲーとか騒いでいる厨房と大差ないよ
似てない真似などに意味などはない、似ていると誇張して事実のすり替えを
するのはよくないよw
>脳がどのような仕組みで思考したり計算しているのかは知らん。
>が、人間の脳とコンピュータや計算尺が同じだとも言ってない。
基本的仕組みはここ1,2年でかなり解析されているだろ。
そのぐらい知らないのか?
言っていないじゃなくてやったからだろ、利用している時点で
言ったのと同じこと。そんな言い訳が通じると思うのか?wっうぇえw
議論を続けておられる諸兄にはどうでもいいことかもしれんが、 結局CPUは最終的に何GHzまで到達するの?
周波数あたりの性能はともかく、ショートするまで周波数は上げれr(ry
GHzで終わる訳が無いので、このスレ自体無意味。
テラHzになるには光半導体での実装が必須だよ。電気だけでは無理。 小型化で周波数を上げることは可能なのだが現状では上げていない。 それは冷やせないから。局所の小さい空間に熱が集中しすぎる問題は 電圧を下げることで回避してきたわけだがそれにも限界がある。 現状のCPUはキャッシュを大面積して熱の集中を回避している。 全て演算部分にすれば性能は上がるが発熱を分散できなくなるわけだ。 この問題でシングルからマルチコアCPUに流れている。 マルチコア化も限界が来るのでプロセッサ間はスーパーコンピュータの 用に光バスで接続しなければいけなくなるだろう。 これがさらに進めば内部の光集積化が進み電気から光へ進化するのは 当然の流れということ。量子コンピュータなどの周波数の無い アナログ情報処理の概念へ進む道もあるがさらに先の話だろう。 測定や観測という数値に表す情報処理ではデジタルへの数値化が必須で デジタル技術が無くなることはまずないだろう。
まあでも、今でも小数点以下第何位とかいう正確な値より、ほぼ妥当な量を求める計算が主流な分野もあるからなぁ。
>>225 科学とは近似の世界だから正確さも適度にあればいい。
スパコンの浮動小数点だって精度が特別にあるわけでもない。
>>224 部分的な高周波の演算動作が必要な分野もある、しかし汎用なCPUで
高い周波数は不用だろうな、4ビットとか8ビット程度の超高速系は
専用LSIで全てハードウエア化したほうが性能がいいわけだからね。
いまのCPUでパイプラインとRISC構造で整数乗算などをやっているのは
実際に一クロック以下で実行してはいないので、実際に1クロックで演算でき
るハードとかも実装してもらったほうが部分的に性能があがりそうな
気がする。SSEとか使っても演算回路が解放されなければ止まるわけだし。
つうことで、量子コンピュータなどの事実上アナログコンピュータの出番ですね。
>>227 量子コンピュータはチューリングマシンではないので、単純な置き換えは事実上
不可能だし量子コンピュータでチューリングマシンの仕組みを実現することは
可能だが従来より技術の面で激しく劣化してしまう。
アナログで演算するのであれは従来の半導体でもできる、量子コンピュータ
でできることは少量の暗号解読や因数分解だけで、ゲームやインターネット
や人工知能や一般のアプリケーションのほぼ全てはその上で動作は不可能である。
つまりコンピュータといっても電卓以下の規模である。
現状は16qubitの規模で半導体が億の単位をはるかに超えているので
集積度の比較ではアメーバーと人間の比といっても過言ではない。
量子コンピュータではqubitの数を増やせば増やすほど回路が指数的に複雑化し
ノイズに弱くなる致命的な欠点がありこれを解決する案は現状は存在しない。
例えば100倍に規模拡大に試みても複雑さは100x100の難易度
ではなく数値では表すことが難しくなるほどの極限の倍率まで難易度が上がる。
>>228 だからさ、なんで得手不得手をわきまえてるくせに不得手分野を例に挙げて全否定するの?
>>231 ここで話題にしているは多分パソコンであって、
パーソナルなコンピュータ限定なら、
>>228 の言い分を否定しきれていない気がする。
パソコン用途のCPUには多分使えないって話は皆も否定はしないだろう。
なんだよ、せっかくの未来板なのに、そんな狭い話だったのかかよ。 おまいら、PC板にでも行って話してろよ。
>>229-230 今では量子チップの集積率を容易に上げるための理論もあれこれ発表されてる。
源ソース読んでないけど、原理的に見て可能とは思えないが・・・。
>>233 未来技術板はありもしないトンデモを語る板じゃない。
分かっている知識をもとにして、いずれこうなるんじゃないかと語るべきだ。
大言壮語では議論が成立しないよ。
量子コンピューターを推したいなら自らその有用性を説くべきで、
否定論者にその仕事を押し付けるのはそもそもおかしな話だ。
>>235 いずれこうなるんじゃないかという範疇にしては、否定的すぎるな。
ノイズの問題とか、技術面で何とでも出来そうな所を無視するのもダメじゃあな。
なんか量子信者が集まってきたね。 量子CPUなんて聞いたことないし、クロックなど関係ないだろw トンデモなのはトンデモな板に帰るべきだよな。 このスレは現状にあるCPUのクロック数を語るスレであるFA.
量子はオナニーの道具ですよ。ぱふぱふ
量子コンピュータは原子の状態を計算と例え、原子がコンピュータだと 主張することですごいという説明をしているだけ。 つまり全ての物質は量子コンピュータ。 これを従来のコンピュータのように使える技術は存在しない。 夢の中、最近できたのは因数分解の応用の類であって。 プログラムが動くコンピュータを作る予定や計画すら存在しない。 そもそも量子コンピュータにプログラムという概念は不適切だろう。
>>233 なんだよ、量子計算の何たるかもわかってないのかよ。
あれは状態の重ね合わせで本来並列度を稼ぐ世界で、実際にはまだ
全然海のものとも山のものともわかってないんだよ。実用には程遠い。
>>239 大きな間違い。プログラムが存在しない世界は単なる自然現象であって、
それはコンピュータとは呼ばれない。オマエ、量子コンピューティングの
世界、何も知らないだろう?ド素人め。
241 :
オーバーテクナナシー :2007/06/08(金) 10:43:06 ID:GBFpmqem
>>240 つ DQN板
痛いなぁ、はづい
ゆとり教育?
242 :
オーバーテクナナシー :2007/06/09(土) 09:26:14 ID:D3Joh2oC
○。・。○。・。○。・。○。・。○。・。○。・。○。・。○。・。○ このレスをみたあなたは・・・3日から7日に ラッキーなことが起きるでしょう。片思いの人と両思いになったり 成績や順位が上ったりetc...でもこのレスをコピペして別々のスレに 5個貼り付けてください。貼り付けなかったら今あなたが1番起きて ほしくないことが起きてしまうでしょう。 コピペするかしないかはあなた次第... ○。・。○。・。○。・。○。・。○。・。○。・。○。・。○。・。○
244 :
オーバーテクナナシー :2007/07/18(水) 02:01:42 ID:9cysb2rJ
(´・ω・`)Intelが開発中の光CPUはどうなった??
光CPUの情報はどこで手に入るのか誰か教えてくれ。 量子コンピュータって計算アルゴリズムの理論ばっかで何か凄そうな名前だけが先行してるよね。 せめて数ビットでも実際に何か計算できる量子計算装置があれば 工学的な理屈からどんぐらいの性能向上が可能かみたいな話もできるだろうけどどうなの? なんか現状は「光速で移動すれば歳とらないんだぜ?」っていうレベルの話しかできないような。
246 :
オーバーテクナナシー :2007/07/18(水) 14:52:29 ID:9cysb2rJ
>>245 俺が見たのは、テレビで光CPUのニュースをやってて
Intelの社員がインタビューされてたやつ。
性能がCore2Duoの40倍にもなって完成間近って社員が言ってたぞ。
速度が10倍、コストが1/100とかえらく景気のいいこと言ってたような。 TDPとか発熱が良好なら、10コアとか20コア詰め込んだメニイコアCPUに仕立て上げるんだろうなあ。
249 :
オーバーテクナナシー :2007/11/18(日) 13:39:37 ID:r/zG8R4Y
インテルの戦略はたぶん、こんな雰囲気なはずです。 @初期のCPUx86の単純クロック高速化 Aパイプライン&並列化によるクロック数の減少 Bマルチコア・マルチCPU化(現状) Cデータ電送の完全シリアル化(4年後ぐらいを予定しているらしい) Dデータ転送の無線、光配線(スパコンでは光バス化が始まっている) Eプロセッサそのものの全光制御回路(量子技術は含まれるが量子コンではない) Fノイマン型情報処理の革命(ここまで来ると予想不可能) 大雑把な雰囲気ですがw Cは既に実験用のシリアル端子があるようです。
既に80コアのプロセッサ(x86ではないが)を試作済み ここまでコアを集積するとダイ上にネットワークを構築しなければならず、 これまではOSがソフトウェアでやっていたようなネットワーキング処理をダイ上でやらなければならない等 単純な命令セットやパイプラインがどうこういうレベルとは全く異なる設計手法になってくる
数年後に5GHzに到着するのも厳しくなってきた感がありますね。 性能は上がっているわけだから問題ないとは思うけど。 すでに高性能なPCは600W電源とかを普通に搭載しているわけだから 熱器具としての安全性を求めてほしいですね。 DELLのデスクトップが発火したようだし。
253 :
オーバーテクナナシー :2007/11/21(水) 01:21:37 ID:uRfFeyD8
もういっそ諦めてパソに標準で液体窒素冷却備えてごり押しで周波数あげようぜ。 そっちのほうがいいような気がしてきた。 ガスや電気と同じように公共扱いで。 温暖化?そんなものしねぇよ。
>>252 PCと同じ条件下で動かすと仮定すれば周波数が下がると思われ。
CPUは約100W台に抑えてくれないと。
逆にPCでも冷却+OCで(ry
最新型PenrynだっけかはかなりOCに強いとか。
インテルはコア数が増やせば消費電力分だけ周波数落とすんだろうね。
253が言うように液体窒素ならどんどん上げられそうだけどw
>>254 現状レベルなら水道流しっぱなしの水枕で冷やせば余裕で
間に合うと思う。排水は風呂に利用で(ry
256 :
オーバーテクナナシー :2007/11/21(水) 03:23:43 ID:ybNVPnRE
プレステに使われてるRISC CPUってなに?
>>255 一世代前のPOWER5なら技術的に近しいものがパソコンに採用されてるけどね。
>>256 思いっきり簡単な例え話で言うと、日本語の単語って一つ一つ文字の「数」違うよね?
それを例えば全部3文字に抑えて(統一して)会話を効率化しましょうって発想の技術。
もちろん単語の数は少なくなってしまい定義できないものも出てしまうけど、それを
他の単語を複数使うことで流用し補いましょうって感じ。
これで分かりづらいなら兎に角構造を単純化して速度を上げやすくしたCPUだと
思ってくれればとりあえずOK。
CPUの直前まで弱電圧高電流で信号を流し、CPU直前でトランスをかまして高電圧化して信号を送る。 これなら発熱量は減らせるかも。 トランスで生じる信号のタイムラグは知らね。
259 :
オーバーテクナナシー :2007/11/25(日) 20:15:30 ID:wKj8GoK1
電流=アンペア 電圧=ボルト
264 :
オーバーテクナナシー :2007/11/30(金) 01:35:20 ID:QGF6mep+
>>259 Pen4 3GHzt が12GFLOPSくらいとネットでみたが、
1年で2倍速になるというあの法則でいくと、1.81TFLOPSまで
12,24,48,96,192,384,768,1536だからして、早ければ
約8年後ぐらいには店頭にならんでいるかも?
265 :
オーバーテクナナシー :2007/11/30(金) 01:56:21 ID:N1ARK1sz
俺、昔の386の頃にCPUのクロックは20MHzが限界って記事を読んだことがある 技術面も少しは進歩しただろうから25MHzくらいはいけるんじゃないか?
>>265 単純アップで0.2GHz台ぐらいです、いまの最速CPUのパイプライン数で、
比較したいCPUのパイプ数で割れば答え(可能比率)がでる。
386時代には外部キャッシュも存在したのでDRAMが同期できなくても
それ以上の周波数にするのはできる。
>>264 試作ができているんだから(ry
足を引っ張り、性能を上げられない原因はDRAMのほうでしょう。
あとメモリバス。eDRAMなどで性能は上がるが容量が稼げない
という問題もある。性能に比例したメモリは必須であり、
量子コンピュータのようにメモリが無いというトンデモ計算機
じゃないかぎり、コンピュータには主記憶は必須でしょ。
あの法則は極所熱も同時に肥大するという欠点があって、
それが解決できないから最新intelだと12MBものキャッシュメモリ
を内蔵しているんでしょ。(熱分散のため)
いまのペースだとw、8年後のPCは2キロhとかで家庭内電力
配線の限界に挑む話じゃ困るでしょ、すでに650W電源搭載PC
があるんだしw
いっそのこと、intelの命令セット互換を捨てましょかって話にならないかな。 Javaのバイトコードを直接実行するチップも将来的には実現するなんて 昔言われていたけど。
>>267 命令語の違いによるエミュレーション速度の劣化はそれほど遅くは無いので
プログラムでJava->x86変換しても1桁異台の遅延程度しか遅くはなりえませんね。
ALPHAのソフトウエアx86エミュレーションでそれは実証済みかと。
で問題となるのがハードウエアや存在しない概念の命令語のエミュレーション
となります。つまりx86でいえばSSEのような特有命令のことです。
Javaのバイトコードに対するx86の命令コードが存在しない場合の
話を意味します。これを展開して実行する為に必要なプログラムの
処理される実効命令数が数百数千にいたることがあるので遅くなるのは
当然でしょう。
VMware等が、Windowsの描画や3Dを凄く早くエミュレーションできるのに
DOSのVRAMを直接操作するアプリになると異様な速度まで低下するのは
VRAM操作のような物理的操作を置き換えるのが非常に困難だからです。
3Dも3Dの物理ハードウエアが存在しない場合にはエミュレーションは
速度的に困難になります。
>>268 ハード詳しくないのであまりよくわからんのだけど、
Javaチップは作るほどの価値がないって事でOK?
いつかでてくんのかなどとちょっと楽しみにしてたんだけど、
JVMでソフト的にやるので充分なのならそれはそれでいいけど。
OSがJAVAで動くみたいなことにならない限りは利点がないと思うな。 大昔のグラフィックアクセラレータみたいに、専用チップ搭載して処理しないと動かないというまでも無いし。 故に携帯とかPDA(は微妙か)みたいな物に乗せるならありかも。
>8年後のPCは2キロhとかで家庭内電力 >配線の限界に挑む CPUの消費電力が何百Wとかいうのは AC100Vで100Wという意味じゃないのだが…(苦笑
>>267 それをやろうとして市場からほとんど受入れられなかったのがItanium。
一応x86互換も供えていたけどパフォーマンスが劣るって理由から
広く使われることが無かった。
もし受入れられていたら今ごろはPCのCPUもItanium(IA-64)に
取って代わられていたはず。
>>269 JAVAをダイレクトに実行するチップって既に存在していますよ。
>>270 って言うか一部の携帯には搭載されていたはず。
曲がりなりにも理系に近い板なのに、ボルトとワットの関係すら知らないとは……。 V(ボルト)×A(アンペア)=W(ワット) で、ここからが問題なんだが、2KWということは家庭用コンセント100ボルトの場合、20アンペアを意味する。 それで電力会社との契約アンペアという奴があるのだが、ワンルームで一人暮らしの場合、通常契約アンペアは 20アンペアになる。つまり一人暮らしの部屋であれば、物理的に2KWを超える電力を消費するマシンは使えない(ブレーカーが落ちる)。 もちろん電力会社と40アンペアで契約すれば2KWを超えるマシンでも使えるようにはなるのだが、電気代の基本料金も上がるし、 あまり一般的では無い。だから2KW(100ボルト20アンペア)を指して「家庭内電力配線の限界」と指摘するのは常識的なラインである。 ちなみにもちろん、2kwの範囲内で電灯や冷蔵庫、洗濯機、テレビやビデオなどの機械も使う必要があるため、2KWまるまるパソコンの ために使えるわけではない。したがって600Wとか650WというPC電源は、一般的な個人で使用するパソコンとしては消費電力の 限界ギリギリに近いとも言える(他にもルータやディスプレイにも電力を消費するし)。もちろん、この消費電力には外付け周辺機器の 電力は含まないので、個人でもその気になれば、外付け周辺機器込みで1kwの壁に挑戦する大電力消費マシンとか作れるかもしれないが、 多分その家はちょっと洗濯機をまわしたり掃除機をかけたり、風呂やトイレの電気をつけただけでブレーカーが落ちることになるだろう。 ちなみに皆が2kw級の消費電力のゲテモノPCを使い出した場合、現在の発電能力では追いつかなくなるので、新たに発電所を建設する 必要が出るようになる。
ただしもちろんPC内でも100ボルトそのままで使っているわけではない。 変圧器(トランス)を用いて、12ボルトや24ボルト程度にまで電圧を落とすことになる。 ただし電圧を落としても電力の総量は変わらないため、ボルトを落とすとアンペアが増えると言う ちょっと見には理解しにくい現象が起きる。 仮に100ボルト6アンペア(600W)の電力を24ボルトに変圧した場合、24ボルト25アンペア(600W)の 電力になるというウソのようなホントの話がある。 PC内の各パーツの部品は最低限必要なアンペアを要求する形で電力が消費されていくが、ここで24ボルトも 電圧を利用しない場合、マザーボード側やパーツ側でさらに変圧器を設置して電圧を落とし、消費電力を低減していくことは 技術的には可能である。 もっともそのような効率的な電圧配分を現在のATX規格の中でおこなうことは不可能なので、新たに規格を設定していく 必要はあるのだが。
うちらのへんではリミッター無いから別に良い
だからと言ってBTX規格が流行るかどうか微妙なところだ。
>>271 いいかげんワットぐらい理解しろよ頭悪すぎだ
現在のCPUの供給電圧なんて、せいぜい1V前後だろう。 これでTDPつまりピーク時の消費電力が65Wなら、何アンペアですか(苦笑) 400Wや500Wの電源を搭載していても、これも常時400Wや500Wを消費している訳でもない。 工業高校の知障スレスレのDQNや、中学生でも理解できるような算数の世界の話なのに、 2kWとかもうねwwwwww
ちなみに家庭用の電子レンジはAC100Vで5〜600W前後、 電気ストーブやファンヒーターは500〜1000W前後、 エアコンはフル稼働時には2500W前後まで喰う ここに消費電力2kW(2000W)のパソコンを一台繋いだ程度で 発電所が必要?ハァ?ですわwwwwwwwwwwwwww
>>280 夏場のエアコン需要地獄は発電所増設計画に重大な影響を及ぼしてるぞ。
特に今年の夏は原発があちこち止まっていた影響で電力関係各社は電力の需要が
供給能力を超えないかやきもきしていたんだが、知らないのか?
最近の半導体は、電力を大幅に減らす技術が生まれたために 完全に停止していた周波数向上が微妙にアップしている。 さらにスーパーコンピュータでは光配線の技術が採用されはじめている IBMの実験では光配線を半導体の上で実現することも試験的に確認も されている。次はチップとチップを結ぶ配線とCPU内部配線を全て 光配線化することで半導体の発熱の半分以上は配線による発熱のために 解決可能になる。 またメモリも新型メモリ技術が続々登場し、電力をほどんと使わない 高速メモリにて省エネも進みそうだ。 まだ100倍ぐらいは高速化の道は停止することはないだろう。 完全光トランジスタ化したCPUが出きるころにはほとんど電気は消費しないはず。
光速の限界にはいつ頃ぶつかるの?
もう「G」じゃなくて「T」だな
>>282 わが国のITはユーザに使用法を十分説明する時間がありません。
このため、初心者がベテランに疑問についてたずねる光景を目にすることがあります。
しかし本来は事故(情報漏えいなど)が発生した場合の責任は、
接続業者、サーバ運営者、システムを開発したエンジニアにあります。
メーカあるいは購入店にたずねるべきです。
利用者の仕事は自治(掲示板の秩序を守ること)です。助言を行ってはなりません。
素人が専門技術に言及するのは「親切」ではありません。「無責任」です。
海外のプロフェッショナルは、「私の仕事ではない」と答えるはずです。
287 :
オーバーテクナナシー :2009/04/15(水) 23:20:20 ID:JlMfQGgx
30万km/1THzは 30cm 1 波長なのでプラスだけで動かすには 15cm 1THzになると15cmしか進めない15cmを越すと逆位相になってしまう。 全ての配線が15cmの基板上になければいけない。
>>287 そんな、1THzなんて言わなくても、50MHzくらいから十分問題になってたよ。
MIPSのR2/3000なんて四相クロックが外部を這い回ってたんだが、基板上を
引き回すと位相がヘロヘロ。30万キロってのは真空中の速度で、素でも
実際の信号は数十%遅いし、基板上の回路は分布容量回路だからな。
そのへんのPCの基盤でも、位相合わせのためのグネグネ(ディレイライン
というかフェーズラインというか)を観察できることがあるぞ。
気分はマイクロストリップライン。古き良きZ80の頃と違って、結線を
間違わなければ動くという世界ではなくなってしまった。
周波数を上げると消費電力が上がるってのは、ステートが変わる瞬間に
チョロドバッと電流が流れるというCMOSの特性な。
>>288 あなたみたいな基礎知識や過去のPCも知ってそうな人が、
なぜ基本中の基本の間違いである「基盤」とか使っちゃうわけ?
290 :
オーバーテクナナシー :2009/04/17(金) 07:54:18 ID:oNPWyI9w
>>287 ところで、1THzって波長0.3mmでにゃ〜か?波長30cmは1GHzだぞ。
>>289 一度目は正しく、二度目は間違ってしまった。厳しい突っ込みアリガトウ。反省します。
ていうかさぁ、最近は出版物(小説等)でも、この手のボケミス多くね?
客から金取るなら校正くらいちゃんとやれやゴルァ!って感じ。
それより、
>>288 書いてる間に
>>287 の波長の間違いに気づかなかった方が恥ずかしいです。
中坊の頃はは無線小僧だったんだがなぁ。波長70cmくらいまでしか縁なかったけど。
>>289 おまえはアホ。IMEの問題で
発言前に文章を全て添削する神経質な君以外は普通に誤変換とか
放置する人は沢山いるってこと。
細かい言葉尻だけを叩くと、総合失調症と呼ばれるぞ。
総合失調症な奴は言葉尻ばかりを気にして、意味や空気を読むことが
できない奴のことだ。
電気を使っている限り抵抗があるわけだから、それによる発熱がある。 それを解決できそうなのは極微細加工で現れる量子効果を使った 情報伝送というのぐらいしかないな。 抵抗の問題を解決できれば、周波数の問題は伝送路の距離だけの問題 となるが、いまの1000倍も上がったぐらいで頭打ちになるのも目に見えて いるだろう。 これからのCPUは論理的な仕組みそのもの、つまりノイマン式、 チューリング型という方式が採用する外部プログラム型の論理手順 方式を廃止した考え方が性能を上げるとされ、非ノイマン型の候補に 量子コンピュータが上ったが、規模が増えることによるノイズ増加 の問題を解決できない根本的な原理により先は真っ暗。 非ノイマン型は考え方の問題であり、従来の半導体技術でも可能で それはアルゴリズムの域に存在する。googleがやっているデータ処理 のような計算を飛躍する方法である。古典的に存在するが周波数依存の ハードウエアに依存しているCPUではこのアルゴリズムは有効活用 できない。これはメモリ依存型であり計算(演算)部分のCPU依存 型ではない。
>>294 あ〜、微細加工云々では手持ちのトピックが2つほど。一つは既存アーキテクチャ
でのマイナス面。デザインルールが細かくなるに従って、漏れ電流がどんどん
増えてますね。だいたい1μmを切ったあたりから超LSIなんていう言葉が使われ
始めましたが、今じゃ2桁nmですもんね。
量子トランジスタってのは確か20年くらい前のトピック。具体的な基本構造は
忘れちゃったけど、原子層数層分の構造を作って、トンネル効果を利用した素子
だったはずなんだけど、最近トンと聞きません。ここ数年話題になっている
量子もつれを利用した素子の可能性の話とはまた別の話です(トンネルダイオード
ってのもまた全く別。あれは負性抵抗領域を持つ素子です)。というか、デバイス畑
は半導体物性の基礎はやったけど、実は私は専門外。(^_^;
>>294 後半の話はもうちょっと詳しい。非ノイマン型の代表選手はデータフローですかね。
ハードウェア構成の原始的モデル例としてはシストリックアレイとか。割と近い実装例は
ThinkingMachinesのCM-1とか。
ファジーコンピューティングって奴はちゃんと勉強しなかったので良く知りません。
1個じゃ速度に限界あるからい〜っぱいってのが超並列って奴で、これに向いた
プログラミングモデルなんかもいろいろ研究されてました。ICOTがやってたのは
並列ロジックプログラミング方面だったっけ?並列プロセス間の協調計算のモデル
もいろいろ提唱されていたと思います。
このへんはパラダイムレベルの物からもうちょっと具体化したプログラミング
モデルレベル、効率的実装法を考えるレベルまで手探り状態でした。
金物アーキテクチャは共有メモリを代表とする密結合(今のx86がそう)じゃ並列数
に限度があるってんで疎結合を手探りしてて、初期の商品化された計算ノードの
例としてINMOSのTransputerなんてのがありました。初期のベンチャーで開発された
疎結合マシンは実用問題でパフォーマンスが出せなくて(並列度が上がらなくて)
たいていは討ち死にしたはずです。CM-5なんかよく頑張った方かも。
最近の化け物マシンはだいたい中〜大粒度の疎結合超並列のようです。日本の
EarthSimulatorは密結合ノード群を疎結合でごっそり束ねた奴ですね。
現在スーパーコンピュータと呼ばれているもののほとんどは疎結合超並列マシン
だと思います。ベクトルマシンもまだまだ健在ではありますが。昔のCrayなんかそう。
大学追い出されてからは研究レベルの話から遠ざかってるので、最近の研究
トピックはわかりません。浦島太郎状態。f(^_^;
297 :
オーバーテクナナシー :2009/04/19(日) 17:19:30 ID:Lgs/6ZwY
>>293 でも気になる。記事でもよくあるけど読む気なくなる。
298 :
オーバーテクナナシー :2009/04/20(月) 13:57:56 ID:qgO3VfuX
今あるスーパーコンピューター何百台分が、デスクトップサイズになる日も来るのかな? そしたらその時代のスーパーコンピューターってどうなってるんだろう?
スーパーコンピュータの定義は、その時代の最高のスペックを誇るコンピュータってな感じだから、スパコン自体はあるだろうね。 ただ、今あるスパコン数百台分のスペックのPCが普通に売られるってのは、あったとしても相当先の話になりそうだな。 CPUの微細加工技術もそろそろ頭打ちになりかかってるわけだから。
300 :
オーバーテクナナシー :2009/04/20(月) 19:59:43 ID:qgO3VfuX
なるほど、イタチごっこにすら今は想像も出来ない状況かあ。 画期的な新技術がないと頭打ちはあるよね。
301 :
オーバーテクナナシー :2009/04/21(火) 01:32:25 ID:Cer32ypd
逆に何処までクロックを落としても性能が落ちなくするかが 競われたりして。 省エネやバッテリーの保持時間の為に。
それなら逆に、クロックが上がっても電力を消費しない技術の方が 有望性があるんじゃないかな。
>>297 >細かい言葉尻だけを叩くと、総合失調症と呼ばれるぞ。
これだ。「言葉尻だけ」さわるなら本文も触らず部分だけの
文法とか変換とか区切りとか接続語とか、
そこだけ叩いている奴が結構いる、全体に対しても反論するなり
意見を言えばいいわけだが、部分だけを叩くのは感情論でしかなく
それのほうが見ていて反感受けると思うよ。
>>296 >後半の話はもうちょっと詳しい。非ノイマン型の代表選手はデータフローですかね。
非ノイマンの論理は、もっとも主流なのが計算をしないタイプのデータ処理ですよ。
ノイマン型は論理を元に仕組みを持って答えをだすから手順が必要となる、
故に手順を細分化した命令群の数をどれだけ早くこなせるかが重要となる。
で。計算をしないタイプとは?
それは簡単な用語でいえば連想記憶のタイプ、それは九九の計算の暗算のように
あらかじめ答えを用意しそれを得るタイプってことね。
それはメタ的なデータを連携させる情報の連携なんだけど、それを
曖昧で範囲のある情報を扱わせたのがファジー制御など、これに学習機能を
持たせたのがニューラルネットワークというものでもある。
基本は連想記憶の概念であって、その延長にすぎない、つまり計算はしない
全体の状況において適切な答えを生み出す「網=ネットワーク」を
記憶の接続の関係で求めるという方式です。
非ノイマンを連想記憶の延長の技術だと考えれば、そこで必要なのは計算や 仕組みを早く行う性能ではなく、メモリの応答性能や伝送路の配線の遅延や メモリの総数に依存することになる。つまり1サイクルは1秒でも 1秒でどんな高度な演算でも確定できるのが特徴となるわけです。 ニューラルネットワーク(=神経網)はメタ的に情報を連結するのではなく 重み付けの相互の依存関係を秩序という形でネットワーク自体に学習させる ことができるという話で。サイクルは重要ではなく学習できる網の規模が 重要となるわけです。つまり手順式(=ノイマン)とは根本的に違うという 話です。ネットワークは情報を抽象化させ、抽象的な非理論の接続形態を 曖昧に処理(繋ぐ)するので結果の精度は高くありませんが、方程式のように 規則性や単純な秩序があるものは秩序部分を抽象的な接続網として自動構築 (=自己組織化)するわけです。 ここに論理性はありません、抽象情報を扱う部分は常に非論理に構築され 中身は常にブラックボックスとなります。故に学習させる為の秩序を作り 出す手法が重要となりますが。単純な学習モデルでは抽象度の高い高度な ネットワーク(=情報連結網)を学習させることが困難になるのです。 人間の脳も脳の構造や役割があり、その構造が何故役割と構造が必要と なったかは解明されておりません。現状では大脳前頭葉が情報の中枢として 機能しているとか。そういう部分的な分類がされているだけで、実験として 脳を【構造的】に構築するような研究は始まったか始まる前の状態です。
305 :
Fuhrer :2009/04/22(水) 07:42:49 ID:PVJ/W2O1
well we are now getting close to the physical limit of silicon, both power consumption and die size has increased significantly during last few years. future advancement in GPU and other chip (say in next 20 years) will be primarily based on the evolution of manufacturing tech like 3D packaging or even some thing that can completely replace silicon
306 :
オーバーテクナナシー :2009/04/22(水) 13:56:28 ID:mbuq+XIc
999ギガテンフラップス
307 :
オーバーテクナナシー :2009/04/23(木) 22:50:11 ID:k4E3JFIq
動作速度が上がると電圧動作でなく電流動作させざる得ないから (高周波成分が増えるとだと部品がどうしても持ってしまう 電気容量の影響が強く出てしまう。) 使用電力は上がってしまう。 確かに、 クロックが上がっても電力を消費しない技術も進化するとは思うが。 クロックが上がっても電力を消費しない技術を使った上で 低クロックにすれば劇的に少なくなるはず。 と思う。 例えばもっと早く動けるOSだったらとか。
>>307 そーいやー、最近あまり聞かれなくなった言葉としてジョセフソン素子なんてのが
ありますね。父さん、昔騒がれていたジョセフソン、どこへ行ってしまったんでしょうね?
(c)森村誠一(ウソ
このへん、純粋に計算モデルを考えているレベルでは、それをどう実装するかは
あえて忘れる場合も多いんです。レイヤが違う。クロックが…ってのはディジタル
ロジック回路を使って実装する場合のお話になります。抵抗とコンデンサとOpAmpを
使って作るアナログコンピュータなんてのも昔からあるわけで。入出力は電圧値です。
>>303 >>304 なぁるほどぉ、連想記憶か。なんとなくイメージはわかります。例えば九九なんてのは
一種の連想記憶と考えることができますね。(×,7,9)というキーで63という結果が
想起されてるわけだ。ノイマン型だって、見方を変えれば入力というキーから
計算結果という答を見出していると言えなくもないか。途中の手順は見なかったことにする。(笑)
ステップを踏むかわりにポッと答が浮かび上がってくるってか。計算機屋に
なろうとしていた私はすぐ「しかして、その内部構造は」とか気になります。(^^;
ニューロはノードの間を線が走っていて、接点の部分に重み係数がついていて
ノードが発火するのしないのという模式図はかすかに記憶にあるのですが、
それ以上のことは知りませんでした。学習させるのじゃ〜なんてのはどこかで
読んだ気が。ご教示ありがとうございます。
>>307 CPUの信号用に使用した電流を最後は冷却ファンの電流に転用するとか夢想したことあるけどできるんかね。
>>309 理論的には問題ない(ファン冷却でファンの消費電力以上の熱を処理して悪い理屈はない)が、現実的には無理ってとこですかねえ。
ファン分の電力を消費しない分、パソコンからよけいな熱が出なくなって、 冷却効果も高まるかなあ……とか何とかかんとか。
>>308 >そーいやー、最近あまり聞かれなくなった言葉としてジョセフソン素子なんてのが
>ありますね。父さん、昔騒がれていたジョセフソン、どこへ行ってしまったんでしょうね?
それは速度に集積化か追いつけないのでメインで開発していたIBMが
研究を放棄しちゃったんですよ。
簡単にいうとその性能に見合うメモリや外部入出力ができなかった、
外部と一切同期しない計算機なら数10MHzで動いていた時代に、
1GHzという4ビットCPUをIBMが試作までした事実はあるね。
AMDやインテルが今性能の壁に当たっている何かとか記事を読んでいれば
その辺は説明する以前に分るとおもうけど。
ソフトウエアを導入する光デバイスとかネットが、そのコンピュータが
1秒で処理するべき内容を提供するのに年単位とかかかったら
まったくもって意味がないわけですからね。
CPUの計算部分だけを見ていると、主メモリや外部記憶、
通信やバックアップなどの帯域はまったく必要ないみたいな幻想に
陥ると思う。
「論理」を処理するノイマン型(=チューリング式)計算機は
情報学で教えるコンピュータの五大要素を無視できないという点でしょう。
入力、出力、演算、記憶、制御
簡単にいえば演算だけ頭でっかちになれば、周囲の要素の関係も大きく歪んで
バランスが取れないってことでしょう。
1万年先の最先端の科学技術の本を石器時代の人に与えて、バランスを
取れといわれても困るわけで。
論理ですから仕組みが協調して互いにそれぞれの機能が有効に
動く必要があるでしょう。
>>307 >ステップを踏むかわりにポッと答が浮かび上がってくるってか。計算機屋に
>なろうとしていた私はすぐ「しかして、その内部構造は」とか気になります。(^^;
ハッシュ検索法とかあるでしょ?
手順式で一番容易なのは頭から順番にリニアに検索して一致するものを
探すという考え方。
それをハッシュ値に変換(写像)し、それを検索位置としてダイレクト
にアクセスする。これは順番に探すなどすべて省略し計算したアドレス
に格納されているものをダイレクトに読み出すという考え方。
考え方は連想記憶のそれと同じですね。
計算するまえに答えを計算してテーブルなどに保存しておく、
必要なときは先に計算していたそれを利用するとか、計算の手順を
省略しているわけです。
情報から情報を計算する。それは情報を情報へ結ぶ行為です。
ファジーはそれを抽象的(範囲を持った関数)に行う、ニューラルネット
ワークは、それを学習(自己組織化を動的に行う)して答えから計算
方法を逆算するという観念を行う方法論でしかないです。
結果として、手順はすべて省略され非論理的に答えを求めることが
できるというのがこの非ノイマン式の1歩です。故にクロック周波数
という概念はほぼ不要になり超越した計算機の可能性を見せます。
(何故この神的な方式が主流にならないという話は省略します。)
論理は、理を論的な順や関連で表現する何かですから、
関係の仕組みや原理が構成される順番などが非常に大事になります。
非論理は、基本的に論理を飛躍、超論理になるわけです、
情報から情報を得るときに感に頼る、これが非論理です。
その感は時に正しくもあり、間違いでもあり、曖昧でも明確でもなり
えます。それは感を実効する装置の性能(規模)がどれだけの計算結果を
蓄積し正確に圧縮保存しているかかが重要になります。
314 :
313 :2009/04/25(土) 12:41:51 ID:tsdiV8Ed
↑レス番号ミス307→308
>>313 まだクビ捻ってます。
連想記憶を一番直接的に表現するのは、key-valueペアの全セルに対して
input-keyのコンパレータをズラーっと並べたものです。これなら入力ドン、
答がポンです。実際にはcell数が多くなったり内容が動的に変化したり
(追加されたり)した時に対応しきれなくなるんで、ハッシュだ何だ言う
アルゴリズムが出てくるわけですが。
でも連想記憶は「答をあらかじめ知っている」というのが大原則であって、
「答の得方は知ってるけど具体的な答は知らない」という抽象度の高い
知識を活用することができません。簡単な例では、公式は知ってるけど
まだ具体値を代入して計算はしていない…の状態ですね。
うーん、問題のカテゴリによって得意不得意が別れそうな気がします。
ちょうど、並列計算の分野で(私の専門分野はこっちでした)、初期に
得意不得意が分かれたように。超並列機の方は実用化が始まって20年
以上たってますから並列アーキテクチャ適応したアルゴリズムが盛んに
研究されて、現在に至っているわけです。
余談:
昔の家電TVCM;「ニュ〜ロ&ファジ〜(はぁと)」
製品開発者;「や、ヤメテクレェ〜!コレはそんな物じゃないんだぁ!」
CMコピーはAIナントカとどっちが先だったかな。
学生の頃、情報工学屋になろうとしていた私は、よく酒飲みながら
研究仲間とTVCMの話をしてこんなんなってました。
_, ._
(;゚ Д゚)??
「ヤメテクレェ!」と叫んでいたのはメーカーに就職した先輩。(´・ω・`)
>でも連想記憶は「答をあらかじめ知っている」というのが大原則であって、 >「答の得方は知ってるけど具体的な答は知らない」という抽象度の高い プログラム的な仕組みで論理的な手順で計算したとしても、その計算式を あらかじめ人が何らかの方法で得たことが大前提ですよね? 大差ないのでは?計算式が分っているならば、あらかじめ計算をして 答えを用意しておけばよいだけでしょう。 ちょっと考えれば(ほとんど考えなくても)、誰でもたどり着くのが 連想記憶の問題点、つまり要素の次元と数が増えれば指数的にその連想記憶 の答えの数が数え切れないほどの総数になるってことです。 これでは使い物にはなりません。 ファジィーではそれを曖昧に範囲として扱う技術といったほうがいいかも、 ニューラルネットワークはそのファジィで記憶するべき内容を自動で計算する 技術(自己組織化)ということ。その有名な例に逆誤差伝播法則、つまり 教師信号を与えて入力と結果の違いを逆方向へ訂正し集束させれば2の指数 的な回数で精度が向上するという原理です。10万分解能ぐらいの精度ならば 17回も逆補正計算をさせれば正しい法則性をネットワーク自体が自分の中で 法則として学習してしまうというような内容の技術です。 ここには法則性が単純でなければ学習させるのは困難という問題もあります。 またニューラルネットワークで学習させるにも複雑性の限界があり、 現状で言われているのは音声のPCMデータを文字へ変換するような類が 限界とされています。(指数的に難しくなる)
>CMコピーはAIナントカとどっちが先だったかな。 AIは知的な情報処理モデルならばすべてがAIと表現されますから注意してください。 決して人間の心が生む思考という仕組みを作り出したわけではありません。 それは辞書を基本とする考え方で、そこに知的な技術を追加し、あらかじめに 知的な辞書、データベースを構築しておくことで道具としての知的な情報処理を 作る(プログラム)することになります。 決して自己組織化した自動で何でも処理するタイプの汎用ではないのです。 ニューラルネットの本は原理の概要なら中学生でも理解できるかもしれません。 説明が簡単であれば、そんなに難しいものではないです。 理解度の高い人なら、その辺の立ち読みで読み解ける範囲です。 しかし抽象的な情報処理部分が自動で行う部分は外部から解読できないという 基本原理を論理的にしか物事を捉えられない人には、言葉の時点で既に 拒否する人が沢山います。 町と町の道路が地形に沿い資源や川、山、利便性に沿い自動で道が作られる 様子が論理的に計算できるはずだと思っても、それを計算するには、 要素と要素の重なり合いの数が無限に飽和し外からみた複雑度を無限倍 したような複雑性の可能性がでてくるので人智が及ぶ範囲の計算機では 1万年後の未来技術でも計算できない状況ができるってことです。 ※組み合わせの要素の値数と要素数が指数になる規模。
脳を考えてください、自然にできた、「非ノイマン」型の典型で その能力は、キチガイ染みた天才肌を発揮する天才児や脳の持ち主が 計算や暗記、そして生み出す精度や技術は機械であるコンピュータを遥かに 越えたことをするものがあるってことです。 脳は神経の伝達速度でその1回のサイクルが決まるので、その1クロックあたりの 全体として意味を出す時間は10msとか100msとかの領域になります。 これは反射神経が反応する時間を表現しているつもりです。 100msならば10Hzの速度ですから。 ここまで遅い処理が4GHzとかで動くPCより高度なことを行う可能性が ある、つまり非ノイマン式では論理を否定することで論理を越える方法と 量子コンピュータのように状態演算を量子として行うような方法論があります。 もし量子コンピュターで完全にノイズが無視できるならば、量子コンピュータ ほどすごい可能性は存在しないはずですが。この世の原理ではノイズが存在 しないとは、この世に存在しない(因果律がない)ということになります。 ノイズがあるほど精度が落ちるので量子コンピュータは現実に古典的な ノイマン式の部分を補っても置き変える主機能にはなりえません。 ノイマン式ですばらしいのはデジタルという仕組みでノイズを完全に除去する こことがこのデジタルという技術ということになります。 光コンピュータができるとすれば、量子でもなく、光デジタルで光を重ね 光どうしは相互に干渉しないとうい法則で計算機として作り上げれば、 周波数は光が扱える周波数(可視光)の近似まで上がる可能性があるでしょう。 私的には、光デジタルが主流になると思われます。 いまの最大の問題は電気を扱う為の熱ですし、非ノイマン型で論理を否定する 非論理の計算は科学で扱うには、あまりにも難とういか論理を飛躍した原理を 扱わなければいけないので21世紀に始まった複雑系学問が発展しなければ この非論理の世界は扱えないと思います。まあ虚数の情報処理という表現の 方が非論理と説明するより比喩にはなっているかも。(意味は違うでしょうけど)
>>318 そういえば光ロジックも最近あまり聞かなくなった話題です。そりゃまあ
パッシブスプリッタ程度のものならそのへんで使われてますが。ゲートレベル
ではデキター!って話はかなり前に聞いたのですが。
単なる勘の域ですが、汎用的なもので現在半導体で実現されている大規模な
ものは私が生きている間には実用化しないでしょう。程度の大小は不明ですが、
半導体ロジックを光ロジックに置き換えたところで熱は出ます。媒体の透明度が
完全でない限り。
現在の最新の半導体のデザインルールは2桁nmです。同等の集積度を実現しようと
したら信号光の波長はこれより短くなければなりません。遠紫外〜もうちょっとで
軟X線帯域ですぜぇ。私も光ロジックの世界を否定するものではありませんが、
前途は多難です。だいたい、2桁nmって、原子何百個分って世界だし。
あと、光素子でトランジスタに相当するアクティブ素子ってありましたっけ?
>>320 のURLはCPUのCPU間の配線の域ですが、
紫外線からX線の域になれば、CPU内部の伝送路にも使えるという
話になると思われますね。
マルチコアCPUが100個の領域を超えるには、光配線の時代の技術が
必要になると思われます、数が増えれば相互に繋ぐ配線ばかり増えて
マルチの性能は配線の帯域性能の壁にぶち当たり性能を上げるのが困難になる
と思われます。IBMの光配線は、内部の発光デバイスではなく、外部から
光を供給しその光をシャッターで制御するという奴ですね。なので発光素子
の問題は外部になるので発光経路とシャッターと受光部だけの問題になると
思われます。
インテルのララビーというCPUは知っていますか?あれは最大32個の
CPUコアを1つのパッケージに収めるCPUで、
この領域になるとCPUとCPUを結ぶ経路の配線が問題になります。
最初のララビーは今年末に出荷されるらしいです。
http://ja.wikipedia.org/wiki/Larrabee http://pc.watch.impress.co.jp/docs/2007/0611/kaigai364.htm これを光配線にできるとすれば、
ララビーはGPU・・・。
>>322 汎用命令を持つPUって時点で一致しているよ。
C=中央(セントラル)でしかないわけ。
従来のGPUとは格が違う。x86のほとんどの命令語を持つ時点で
過去の汎用命令語を持たないものと比較するのはちょっとねぇ。
そのGPUのベースコアだって初代の時期のPentiumそのものが
GPU用の命令語を追加して乗っているわけだし。P54Cあたりらしいが。
1つのウエハーかマルチセルベースの問題はあるのかもね。
そのうちクロックとか関係ない演算素子が出来て解決するんじゃね?
>>324 演算素子じゃなくて情報処理モデル。
究極なものは演算せず結果を出すことなんだよね。
仕組みがあるから手順がある、手順があるからその過程に情報処理の要素
として演算という概念が必要になる。
その結果としてクロックという概念が情報を管理するのに有用になる。
勝負の世界と別のものを考えたとして、勝負せずに勝てば
それは神域の強さといえる。論理としては矛盾しているが
この仕組みが存在しないと言うわけではない。
326 :
オーバーテクナナシー :2009/06/04(木) 02:35:52 ID:OmqjGQ1W
ソフトで回路の組み換えが出来るハードを用いて 必要な演算ない処理回路を必要に応じて作る事で処理速度を上げるとか
それなんてFPGA
FPGAなんて、その辺の試作品のほとんどが実装しているやつ。
ソフトでという話は、ソフトを記録しなければいけない
ソフトというのは書き換えが可能な半固定という状況を意味するもので
書き換えができないマイクロプログラムのようなものはソフトではなく
ハードウエアに部類する。
演算の必要が無いとは、連想記憶のような原理、つまりテーブル変換の
原理を用いて仕組みを情報の連鎖として実現する方法です。
それは専用配線でも汎用バスなどでもいいわけで、複雑になるほど
テーブルに相当する部分が肥大化し実現が不可能になる。
それを繰り返し手順で行う仕組みの処理で回路を縮小させる為に
演算部分が必須になるわけ。よく考えよう
>>326 更にNOR OR NAND AND D-FFなどの基本ゲート回路でも演算の1つである。
329 :
オーバーテクナナシー :2009/08/26(水) 13:03:43 ID:oZ1S3P8d
>>326 ソフトで性能の限界を飛躍するとは概念や情報処理モデルで
信号が表すメタ情報の意味を複雑化、多様化するという話へ繋がる。
しかし現在のコンピュータは極めて論理的なモデル、つまりデジタル技術
である。論という数珠つながりの曖昧さがなく完璧な間違いのない結果を
だす科学技術の結果でもある。
多様化し、抽象化し、論理ではない領域での情報処理モデルでは、
間違いだらけの結果を含むアナログ的な技術が必要になってくる。
これは科学的な技術になるのは困難である、なぜなら反証できない
不確定な領域にあるからである。
それは複雑故に単純化はできない。複雑さを極める情報を複雑のままに
扱う方法は科学技術として表すのは誰も成功していない。
330 :
オーバーテクナナシー :2009/08/26(水) 15:14:28 ID:XCrC1y8T
>>324 演算しないって、素粒子計算機??そりゃ〜〜早くなるわな〜。
多くとも、プランク秒の逆数を持つ周波数、 つまり1/ 5.39121 × 10^-44 ≒ 2×10^43 Hz よりは速くできないな。 接頭語が用意されていないくらいでかい数だが…
3GHzっていっても、内部で並列化しているので実際はそこまで早くない 銅線を使っているかぎり10cmで500MHzあたりが電送の限界。 これはクロックの位相をずらすことで1つの伝送路の話 PCの配線ともなると、Mainボードの端まで届く信号ともなると 200MHzぐらいが物知的な限界。 CPU内部でも2GHzぐらいが物理的限界であるのは明白、 Pentium4などはこれを20ステージに別けて 20個並列をずらして電気信号を20倍の見かけ速度まで上げているだけ これは見かけの速度でしかない。 CPU内部極所になればL1キャッシュで10GHz レジスタで40GHzぐらいが常温の 物理的限界となる これは距離(電気抵抗)に依存するので総電送距離が小さくなれば 早くなるが容量を小さくしなければならない、更に極所発熱という 問題もある。 既にCPU内部の一番薄い絶縁膜は量子効果が起こる直前まで薄くなって おり絶縁膜として機能しなくなる薄さに近づいていて半導体として 高集積化する限界はそろそろ2D(平面)実装の限界に達している。 将来の可能性としては3次元回路&配線の実装ぐらいしかない。
へー そうなんだ 3次元回路って難しいの?
日立あたりが時々発表している、量子効果を前提にしたデバイスとかはまだまだ?
335 :
オーバーテクナナシー :2009/09/10(木) 01:28:40 ID:o8NFnmU8
>>334 量子コンピュータはいまだプロトサイエンス(仮説の段階)
だけど、量子素子を演算とする従来型(ノイマン式)なコンピュータ
であれば将来的に普通の技術とおもわれる。現状で量子素子は沢山試作
されている。量子状態ではなく超多ビットとして計算をする擬似量子コンピュータ
ならば市販品が既に販売されている。
半導体の製造においては現状の製造ルールでは絶縁膜の絶縁抵抗が限界にきている
※絶縁ができないと漏れ電流で熱やノイズとなる。(量子効果で絶縁膜を
貫通してしまう)
その為に製造ルール(プロセス)を細かくするのが限界に近づいている。
今後は量子効果そのものを利用した回路でなければ製造は不可能になる
だが、論理構造と情報処理のアルゴリズムモデルがノイマン式という
手順を元に情報処理をする手法からは逸脱することは未だにできない。
これは最先端でも同じ、非ノイマン式というものは論理的ではない
情報処理であるから、それは論理を飛躍するという情報処理であって
結果が常に客観的に決まるとうい科学的なモデルではないって意味になります。
結局は1GHzで十分である
まあOSが重くなってるだけと言えばそうなんだけどね。
339 :
オーバーテクナナシー :2009/09/11(金) 15:08:30 ID:wT63yh/4
電波法に詳しい人に聞くといいけど 「300まんめがへるつまで」 つうことは作った人がいるから定義できる数値。
>>339 ……横槍ですまんが、300まんへるつじゃないのか?
実際は60GHzあたりから、免許不要になるよ。 3THzあたりから、電波法では一切制限は不可能になる。(電波ではなく光になる) 60GHzの電波は紙1枚貫通できないので 電波法で規制する必要がないって話だと、おもった。 つまり途中に人が手をかざして妨害すると通信不能になるって話。 もうちょっと桁が高い周波数だと貫通できるのかもしれんが。
最近はマルチコアを睨んで 並列処理用の命令が出てきたから もうクロックは上がらないだろうね。
だが、集積度は上がる、 そうすると何が起きるか? 半導体微細回路の絶縁膜が絶縁膜として機能しえなくなる。 量子効果で原子の数が100個未満のような状態を超えると絶縁膜を超えて 電子が流れてしまうってこと。 つまり集積度の壁をもうすぐ到達するってこと、そして発熱の問題も 電気を媒体として使っている限り発熱の問題も解決できないってこと。 つまり、また周波数を上げる必要がでてくるって話だ。 それは光(多分紫外線かX線)の領域を使い伝送をするのが始まりとして、 ※紫外線配線は既にIBMが試作済み。 光トランジスタの集積回路は量子コンピュータ技術を背景として作成できる かが鍵だろう。単素子では意味がないから。
345 :
りか :2010/05/28(金) 17:06:35 ID:sUdXd6JT
今年Intel社が新しいCPUリリースするらしいですょ i7-980xじゃなくてね
>>344 配線(銅線、アルミ線)の中をどうやって磁気が流れるの?
磁界に指向性もたせるとしても電気の絶縁より不可能に近いだろう。
電子を扱わない配線といえば導波管が無難だろう。
太さを細くするのが困難でも周波数は上げることが可能ってことな。
電磁波を導波管内部に通過させるわけで、電気ではないので
電気抵抗は存在しない。微細加工をしなくても周波数を上げることで
性能は上げられるってこと。
まあ夢のCPUといえば、光トランジスタと光配線技術を使った集積回路
ってことだろ。物理的素子としての光スイッチは試験段階にある(量産できない)
>>345 普通にインテルのロードマップ見ろ。4年後とか8年後の情報なら
知りたいが。
何をリンク先の記事が消えた頃に書き込みしてるんだ
348 :
オーバーテクナナシー :2010/05/28(金) 20:43:07 ID:LfcVLfM9
光の速度30万k/sec(30x10^10cmを)100G(10x10^10)で割ると 1cm、つまり光でも1cmしか動けない、1cmのダイの上に、 RAMもROMもすべて乗っからないとCPUは動かない。 ボードのクロックを出したらそれっきり、クロックは次の位相に入っている。
349 :
↑ :2010/05/28(金) 20:44:30 ID:LfcVLfM9
いけない、3cmだった、すまそ。
350 :
オーバーテクナナシー :2010/05/29(土) 11:18:28 ID:k1sj8kI0
3mmだろクソバカ 小学生レベルの計算間違えるなよ お前のようなバカがシッタカすると小学生に失礼だろ? 謝るくらいなら何度も間違えるな
351 :
↑ クソバカ :2010/05/29(土) 22:21:07 ID:MwJg6vSy
わるかった、でもこれで限界周波数は決まってることにナル ボードが30cmだったら、1Gが限界にナル、???のかな。
352 :
オーバーテクナナシー :2010/05/30(日) 00:13:13 ID:Hply9AMA
お前たちアホだろw 電波で妄想な光の速度と距離云々以前に 周波数を増やせば増やすほど直流に近くなって 摩擦が増加し熱の処理が間に合わなくなる 熱が上がるとコア内のコンデンサやトランジスタなどに誤差が 生じ計算処理にエラーが多発する。正常に動作させるためには 温度を下げるしかないジレンマに陥り結果的にクロックを下げる ことになった。 代わりにコアを増やせばいいじゃんと言う幼稚な発想で生まれた のが今のCPUw 悲しいけどこれって現実なのよね
>>347 お前は検索というのを知らないのか。アフォもほどほどに。
ソースが1つだけなら怪しいだろ。普通は複数ソースがある。
>>351 昔のAT互換機で設計された基板上では5Vで安定した波形で伝送
できる距離は10MHzのクロックで1m程度と目測された。
電圧を下げ位相やら1クロックで複数ビットやらいろいろな技術で
高速化されているが、DRAMとCPUの距離は20cmぐらいが限界。
既に技術限界に達したので伝送路を電圧ではなく電流駆動で行う
方法に切り替え用としている。これにはコストがかかるので
インテルは独自に
>RAMもROMもすべて乗っからないとCPUは動かない。
このような手法を考えている。
安易だが距離が10分の1になれば速度も10倍という簡単な理屈になる。
また一番の問題になっているソケットによる接触部分がなくなる。
ソケットによる速度低下がどれだけ大きいかをすらないのがいる。
一番確実なのは溶接ってことな。10倍の速度になるものがさらに10倍で
100倍という可能性まででてくる。
L2/L3キャッシュなどは従来はSRAMを採用しているが、大容量化が可能な
DRAMが使えないのはCPU熱の問題だ、
だが既に大容量DRAMをL3に採用した最先端チップがこの世に出ている。
32MBのL3キャッシュ(CPU基板上)L3を巨大化するのはレイテンシーの
問題が大きくなるので別の技術が必要になる。
レイテンシーが増えればキャッシュ容量を増やしても性能が上がらない
というのは自分で検索してくれ。
信号自体はデジタル信号を60GHz上の無線伝送(市場にある)が既にあるわけで、
可能ではあるがメモリBUSなどに採用するにはRAMBUSの特許に触れるので
簡単にはゆかない。RAMBUS事買収すれば可能だ。
354 :
オーバーテクナナシー :2010/05/30(日) 09:51:02 ID:FeHlaZVN
光の速度と言うのは、アインシュタインの物理的限界速度 情報もそれ以上の速度には行けない、電圧も電流もない みんな同じ。
355 :
↑ :2010/05/30(日) 15:45:09 ID:FeHlaZVN
光の速度を越えるのは、量子論の相似(量子テレポーテイション)だけ。
356 :
オーバーテクナナシー :2010/05/30(日) 20:11:07 ID:Hply9AMA
お前らバカだろ?w 読み取りに関しては、データが返送されてくるまで待つ必要があるけど メモリへの書き込みとか待つ必要のない処理に関しては、 送りっぱで済む訳だから、処理後は直ちに次処理に移ればいいだけじゃん?w これなら、1万ギガヘルツだろうが1兆だろうが恩恵は十分にある 後さ論理値で意味のない不毛な言い争いしてても無意味だぞw そもそも、100Gとか論争しても無意味じゃね?w 超伝導でも使わない限り高温で暴走するぞw
>>356 メモリにデータを書き込んだ後、そのデータを読まないとプログラムは進まないんだが。
358 :
オーバーテクナナシー :2010/05/31(月) 19:56:56 ID:7W+H6fp0
c言語とかの高級でみたらそうだが 機械語にしたら、ロード処理とライト処理なんてかなり町々だぜw しかも、コンパイラである程度最適化できるしな まあ、ダイ内のキャッシュ使えば読み込み距離も殆ど無視できるしw それより熱処理だぜ 3Vでも5G超えると200W超えて普通の冷却じゃ間に合わなくなり完全に燃える 電気ストーブw
熱処理なら宇宙にもって行くといいよ 旧冥王星あたりなら暖房機としても重宝すると思うんだ
ひょっとしてギャグで(ry
少なくともメモリとかHDに比べて上昇速度が頭打ちな感はあるよね。 量子コンピュータじゃないけど抜本的な方向転換が必要なはず。 で、量子コンピュータ以外に一つのチップで1bit(0か1の2進法)をやぶる方法ってないのかな? 例えば光の色とか使えば一個の素子で1024万bitとか表現できるんじゃね?
3進法のが作られたってニュースを見たことがある
>>361 東芝のフラッシュメモリで多値NANDという技術があってな。