1 :
Socket774 :
2013/12/07(土) 23:00:58.40 ID:sGyMlZtV
2 :
Socket774 :2013/12/07(土) 23:11:46.38 ID:OiGWD/Jy
数で言ったらOSすらない組込み系の物が圧倒的じゃね?
3 :
Socket774 :2013/12/08(日) 08:19:17.99 ID:hCH+ZcFO
そもそも、組み込み用の4bit8bitレベルのマイコンの多くは、 OS載せれるほどスペック高くないからな
4 :
Socket774 :2013/12/08(日) 12:14:01.96 ID:hPAv927K
>>3 4bitマイコンなんて白物家電のリモコンに未だに搭載されているからな・・・
OSなんて搭載しても動かん
5 :
Socket774 :2013/12/08(日) 12:25:13.82 ID:+QtB9/Tl
多少なりとも自律的に動く機器なら、ごく小規模な組み込みでもOSというかモニタ的なものはどうしても必要になる
6 :
Socket774 :2013/12/08(日) 12:40:04.29 ID:9yAVb0KO
今じゃロジックもプログラムしちゃうからな…
>>1 おちゅ〜♥
7 :
Socket774 :2013/12/08(日) 12:55:15.37 ID:0iTthot0
RAMが2KBとかだとOSは乗らないね。main関数をCで書いて、アセンブラで書いたブートストラップから呼んだりする。 C標準ライブラリを呼び出すとDATAやBSSが大きくて入らなくなったりする
8 :
Socket774 :2013/12/08(日) 12:59:13.55 ID:NTnuOEgA
9 :
Socket774 :2013/12/08(日) 13:03:17.09 ID:0iTthot0
OSを載せるのが目的ではない。OSを載せて何をするのかが問題。ここまでRAMが少なくなるとOSを載せても貴重なリソースが無駄になるだけ。必要な機能を自分で書けばよろしい。
スクラッチから実装したところで、どっちみちリアルタイムOSが提供するような機能は何かしら必要になるだろう? ソースコードのポータビリティより素敵なものがあるのかい?
俺の持論を開陳すると、仮想メモリが「使える」(ただ載っているだけではなくて、使えるというのが肝要。) マイコンはOSを載せても良い。OSが管理するべきものがあるからね。
仮想メモリサポートと一口にいっても組み込みではいくつか水準があるが、どれのことを言っているのか。
RAM1KBのマイコンプログラムを書いてる人にポータビリティと言っても笑われて終わりです。 リアルタイムOS?タイマ割り込みに処理を書けばいい。
それではメンテナンスし難いコードになる。
>>11 リアルタイム系の環境では、仮想メモリ非対応(仮想メモリにスワップアウトしてしまうと応答時間を保証できなくなから)なOSとか当たり前にあるけど。
ワナビーの巣窟
そういや家電って10年くらい前から32bitになってるけど、 そろそろ64bitも出てきてるのかな
カンガルーじゃないぞ
>>18 2004年発表のNEC製DTVチップが既に64bitコアVR5500
NEC/ルネサスのハイビジョンレコ用SOCのEMMA2RHやEMMA3シリーズもずっとこのコア
パナや東芝は自社32bitCPUコアだったけど数年前にCortex-A9デュアルに切替
64bitはまだっぽいけど、VR5500は古いしクロックも低いんでこっちのほうが速い
>>8 TCP/IP動かすには実質32bitマイコンが必須だろ
”実質”がどういう意味かわからないな。 "TCP/IP"はMS-DOSでも使えた
Cellがテレビに入ってなかったっけ?
>>23 セルレグザはバグだらけ電気食い過ぎで、即CEVO(Cortex-A9デュアル)に代替わり
10BASE-Tなら、Z80系コアのTCP/IP処理チップがあったりする
H8+ethernetのマイコンボードが秋月あたりで普通に買えますがな
PICもH8もメーカーが標準TCP/IPスタックを公開してる
H8は16ビットだし!
下位モデルと分けるとか まあKraitが差別化になってたようには見えないから やめても不思議はないけれど
クアルコムの利点は、4G/LTEのチップ・ソフトや、各キャリア対応ソフトウェア、 Androidの自社チップ対応カスタム品までワンストップで提供出来ることにあるので、 むしろCPUコアなんてARMのIPから大きく手を入れる必要ないんじゃないか?
ところが伝統的にCPUGPUとも自前なんだよね。Qualcomm の生産量ならその方が安い?
A53は低価格低消費電力コアだろう。 低価格品は手を抜くのかね。
上は20nmでA57じゃね
メモリ売り上50%増でも数は2/3になってるということか。
今のSnapdragonってモデムやRFまでワンチップなんだな。 他社はバリデーションが大変だ。
まあ、最終的には回路類全部入れてワンチップにしたいだろうしな
"最終的"には俺ら人間も取り込んでワンチップにしないといかんな
とりあえずH.265エンコーダを入れてくれ。
TIのサイトを見てたらDSPを久しぶりに見かけた。 今どきx86のCPUでSIMDとかAVXとかあるのに、DSPの役どころはあるのかな? DSPの方が圧倒的に早い、みたいな残ってる事情があるのかい?
AV家電とかだとDSPの天国じゃないのか? わざわざ汎用CPUとGPUにやらせるのは馬鹿らしいし
ARMのSIMD(NEON)ならそんなに高くはない昨今
DSPのほうが電力コストもダイコストも汎用演算器より安い
これだけGPGPU言われてるのに(最近は微妙?)、 GPUの動画再生回路はGPGPUじゃなくて専用回路になってるしな
DSPで動かしたほうが消費電力が圧倒的に小さかったり、CPUの性能を2ランク下げてもよくなったり、専用回路だから他の仕事が割り込んでこないからコマ飛びとか起きず動作安定性が高かったり、 不具合がチップ製造業者の責任になったりするのでは
でも製造能力は業界トップレベルじゃないの
SamsungというかCommon PlatformがIntel/TSMCに次ぐか並ぶか
電力コスト第一が現状モバイルの最優先事項なんで、 こいつがひっくり返らない限り、固定機能の実装は、専用回路でって流れは続くはず。 おまけに、プロセスの微細化のお陰で、小さな専用回路を 実装する分には、昔ほどシビアではないし。 GPU起こして処理させた時に、DSPより消費電力下がるなら、GPUでって話にも なるかもしれないが、汎用ロジックじゃあ、専用ロジックには、絶対勝てねーしな・・・。
GoogleがARMベースの独自プロセッサの開発を検討中─Bloomberg報道
http://rbmen.blogspot.jp/2013/12/googlearmbloomberg.html?m=1 GoogleがARMベースの独自プロセッサの開発を
検討していることが分かったと
消息筋の話としてBloombergが報じました。
自社のデータセンターの運用に
必要なサーバー向けの用途になるとのこと。
ARMアーキテクチャを活用して、
サーバーのプロセッサを直接設計する事を念頭に
検討を進めている模様。
Googleがチップを直接設計した場合、
ハードウェア-ソフトウェア間の相互作用の発揮が期待されます。
またGoogleは世界のサーバ・プロセッサ市場では巨大な購買力を備え、
Intelにとって5番目に大きな顧客であり、
Googleが独自プロセッサの開発に乗り出した場合、
Intelには大きな打撃になると伝えられています。
54 :
Socket774 :2013/12/14(土) 04:14:13.36 ID:L6iShlUS
Intelオワッテルになってしまうのか!?
GoogleのARMをIntelで生産したら笑える。 ARMをIntelが生産したがらないかもしれないが、 Google側は新規に始めるなら設計ツールをIntelに合わせればいいし。
ARMいじり出すとかGoogleも節操ないな! 日本の土管連中の独自アプリについてもきちんと考えてほしいもんだわ
なんとなくだけどnvのarm soc使いそうな気がする スティーブ・スコット絡みで
今検討してるなら5年後とかそういう話だろ
仮に5年後として、インテルと他ファブとの技術差は埋まってるだろうか、開いていってるだろうか
AppleになりたいGoogle先生
Google先生はOracle税みたいなコアライセンスとかDBやCALとか無縁で 物量が問題なんだから20n以降の情勢を考えるとx86にこだわるよりも ARM使ってクライアントと開発環境を統一するとか、Intelに依存するよりも 自分でコントロールするほうがましなんだろうという判断もあるだろうね。 ブラフの可能性もあるけど。
10年後にはSamsungがIntelを超えると予言する!
ああ、思い出した。Google先生は合衆国政府に「穴」を仕込まれるのが嫌なんだろうな。 中国がアイロンにASIC仕込んでいるのがばれたし、石に仕掛けられると検出が困難。 だとするなら性能関係なしに政治的技術的理由でARMに移行するだろう。 Fabも同じような理由で中国人が多いTSMCではなくGFを使うかもしれないし、 L7SWや将来的にはルート認証局まで自前で運用することになるだろうな。
電子機器を使わなければ穴なんて仕込まれることはない 紙・鉛筆・そろばん・計算尺でやればいい
周囲の人間が持つ機器のカメラやマイクが則られていて以下略
機密情報の流出がしゃれになってないから、 紙媒体での保管が見直されつつあるらしいね。
今現在でているAndoroidやiOSの一番ハイスペックなスマホ機種はもうPS3の性能を抜いているだろう。 CPUだったら、ARM系統のSnapdragonと、64bitのA7だろうけど、純粋な演算性能で、PS3を抜いているだろう。 メモリーも2Gだし。 PS4に対しても、スマホの最高機種は追い抜くか同等程度の性能を得るのに5年もかからないんじゃね? となったら、自作PCやPCゲーすらスマホに駆逐される未来が予想される。
今までと同じペースで性能向上出来たら苦労しないわな ARMは元々性能が悪くて省エネだったのを、 性能を上げて電力食うようにしてきたのもあるし
演算性能で言ったら、8コアぶんまわせるPS3にモバイル用な(電力に制限のある)ARMで勝てるのか? 将来的にはともかく、今はまだなんじゃないの?
デュアルチャネルで2GBならわかるけど 3GBはどういう接続なんだろうね
LPDDR3 6Gbitチップが4枚載ってる
6Gbit品! すごい!
>>63 非米系ファブが怖い、ってんなら尚更インテル一択じゃねーの
>>67 PS3のコアはDSPだっての
アーキテクチャも回路もわからん奴は語っても滑稽だ
x86もARMも内部が拡張されて性能が上がってきたけど、 今後10デコーダ、20実行ユニットとかを実現させるにはどんなメモリが必要なのか…
>PS3のコアはDSPだっての くわしくおしえて
>>79 28までやってりゃ当面廉価版APは作れたのにな。
まあ利益が少ないのでやりたくなかったのだろうけど。
やりたいやりたくない以前の問題として、金が無いのでどうしようもない 当時、金が掛かるから何も開発するなという部署もあったそうで、 その話を聞いたときには同情した
こういったテクノロジー系企業では、 なにもやらないリスクのほうがなにかやるリスクより大きい なにもやらないとすぐに死ぬ 経営者が馬鹿なんだろ
なにもやらないリスクなんてないから
リソの限界なんだから仕方がない。微細化はもう諦めようぜ。
W-X族材料とか光インタコネクトとか改善するとこはまだあるぞ!!
ベネフィットやリターンという言葉を知らない
>>84
性能アピール系のARM SoC調達はSnapdragon一択でTegraとか市場でまったく相手にされて無いじゃん
Snapdragonnなら、CPUだけじゃなく、無線関連チップ、開発支援サービス、Snapdragon用Androidやソフトウェア、 リファレンス実装までワンストップで提供される スマホを短期間で開発するには、Snapdragonを選ぶのがいちばん楽
>>48 の記事よると、Q社以外はオワコン
>実際ある半導体ベンダーは「もちろん技術的にLTEモデムを提供することは可能だが、
>キャリア認証に要する手間とコストを考えると、後発組はビジネスとしてすでに成立しない」と語っていた。
ジャガー(笑)って8コアでもSnapdragon800やTegra4より性能低いでしょ
さすがにそこまで性能低かったらARMにしてるんじゃないか、特にSONYとかVitaもあるし
CPUは同レベル、問題はメモリの容量だろ ARMの64ビット化があともう少し早ければ可能性はあった
>>95 CPUスレに居て学んだ結果がそれか・・・
スマホのSoCは安いんだな
エントリーレベル5ドル未満って500円以下ってことでしょ?
大量発注が前提とはいえ、ミドルレンジでも500円から1500円かよ
http://pc.watch.impress.co.jp/docs/column/1month-kouza/20131219_628127.html > さて、前回紹介したQualcommとかSamsungのSoCは、
> 図3でいえばミドルレンジからプレミアム向けという位置付けになる。
> 図2ではそれぞれのSoCのチップ価格を、
>
> エントリーレベル:5ドル未満
> ミドルレンジ:5〜15ドル
> プレミアム:15〜20ドル
>
> と推定している。ただし、これはあくまで2017年における価格であって、
> 現状はもう少し値段が高く、
>
> エントリーレベル:10ドル未満
> ミドルレンジ:10〜20ドル
> プレミアム:20ドル以上
>
> といったところ。もっとも、
> SoCの値段に定価というものは存在しない。
> というのは当然発注数量に応じて値段が変わる
> 相対取引ベースだからであるが、
> それでも例えばハイエンド向けのSoCでは40ドル以上
> という数字を聞いたことがある。おおまかに言えば、
> 製品の最終価格の5%前後というのがSoCの値段の相場であるから、
> スマートフォンの値段から、
> 逆算すればおおよそのSoC価格は想像できるだろう。
常識ですよ
そりゃエントリーレベルはCortex-A5のオモチャだからな。
エントリーレベルのモバイル向けSoCって、Nokiaとかが新興国向けに16ドルとかで売ってる携帯電話用のSoCなんじゃないの 上記計算方法によるとSoCは80セントくらいかな
>>99 そもそもキャリアへの納入価格(原価じゃない)で2-3万円くらいでしょ
なぜかキャリアの定価になると8万円とかになるが…
プロセスルールって、これ以上微細化しても意味や恩恵ってあるのかね? (特にシリコンウェハ+金属素材配線の場合) 例えば、65nm→45 or 40nm、45nm→32nm or 28nm、等は 微細化による高クロック化、低消費電力etcの恩恵が十分に得られたけれど、 32nm→28nmや、28nm→22nmは要求される技術力の割に、 メリットが小さいように思えるんだよね。そこの所どうなんだろう? 後、今現在ある程度枯れて安定しているプロセスルールの中で 一番微細化しているのって、45 or 40nmでいいのかな?
金はかかるけど恩恵はそれなりにあるだろ 今までみたいに簡単に安価にはならないだろうけど
>>104 省電力かつ性能を求めるトレンドは終わってない
今まで工場を作るお金を1年で回収できたけど
それが2年になったり3年になったりするだけ
>>104 トランジスタを多く積める。これだけでも十分価値がある。
もっとも追加トランジスタと性能向上は、どこかで天秤にかけなきゃダメだろけど
だからこそリニアに性能の上がる(&将来的に必要とされている)FPに焦点を合わせて
各社GPGPUだったりメニィーコアだったりSIMDの演算幅の拡張を推し進めてるんでしょ。
だからこそトランジスタを多く積めること自体が重要。(特に前世代より性能を落とせないから)
20nm以降はコスト激増だからコストに見合わない と、言ってたら他の何処かが1xnmをやり始めて時代に取り残される。そんな業界。 現時点ではコストに見合わないという考え方もアリだと思うけど。
>>106 性能に関してはPC、携帯端末では終わったね。
携帯端末では激戦化してるとこだろw 64bit化とか8コアとか、どんどん過激化してるとこやん PCはあとまわしにされてる感はあるね。 そのうちタブレットとかに食われちゃうかもな
> 64bit化とか8コアとか、どんどん過激化してるとこやん 性能が上げられないから誤魔化してるだけでは? 世界で一番売れてるタブレットは8コアどころか2コアですよ
性能が上げづらくなってるってとこまでは完全に同意だけど だからこそ他に差をつけられるなら何でもやるだろ ちなみに64bitに最初に手を出したのはその一番売れてる製品ですよと
開発者に慣れさせておくためにも早期の64ビット化は必要でしょう
>>113 電池がもたないしファン回転がうるさいやつか
>>104 28nmプロセスの長期化を前提に導入されたARMの新CPUコア「Cortex-A12」
http://pc.watch.impress.co.jp/docs/column/kaigai/20130711_607295.html ウェハが、Fabでこれまでより多くのプロセス工程を経るようになると、
その分、加工に時間がかかるようになり、製造コストが上がってしまう。
そのため、当面は、我々のコアを、28nmプロセスから20nmに移しても、
コスト削減の効果はあまり期待できない。
20nmやFinFETプロセスで、確かに(ダイ面積は)小さくなるが、
ウェハコストが上がってしまうので、結果としてコストが下がらないだろう。
これはどういった変化をもたらすのか。
答えは簡単で、一部の製品では(微細なプロセスへと
移行する意味が薄くなり)、現在のプロセスに留まろうとする。
例えば、エントリーレベルスマートフォンでは、
現在のTSMCの28HPMプロセスが、
非常に長い期間使われることになるだろう。
そのため、我々はCortex-A12やCortex-A7が、
長期的に28HPMのいいコアになるだろうと考えている。
28nmは非常に長く続くノードになるだろう。
ただし、それはミッドレンジ以下のスマートフォンについてであって
、ハイエンドスマートフォンでは異なるストーリーだ。
ハイエンドとミッドレンジの根本的な違いは、
ハイエンドではコストをそれほど重視しない点だ。
その代わり、手に入る最高の技術を使う方が大切だと考える。
だから、先進のプロセスへと移行する。
ミッドタイアでは、よりコストとのバランスを取るため、
経済的なプロセスに留まる。
>>114 UNIX系OS全般に言えることだけど
現行の32bitのUNIX系OSのほとんどが2038年問題を抱えてる
Linux、FreeBSD、Android、iOSも例外ではない
だからいずれは64bitに移行しないといけない
Linuxは64bitでは2038年問題に対応済み
おそらくiOSも64bit化で2038年問題に対応してるだろう
時刻データを64ビットにするのとCPUの64ビット化はまったくの別問題
もしかして、CPUが32ビットだと64ビット整数型のunix timeが扱えないと勘違いしているのかな。 ついに、プログラムを1度も書いたことがない人がUNIXを使う時代になったのか!
8bitのファミコンですら65535(以上)扱えるのにね
>>118 、119
現在のLinuxではtime_t型がlong型になってる
Linuxの64bitではLP64が採用されているから
32bitではlong型は32bitだが64bitではlong型では64bitになる
実際に32bit Linuxでは2038年以降の年代を設定できない
C言語はもともとUNIXを記述する為に作られた言語だから
C言語のtime_t型の扱いには密接な関係がある
また、AndroidもiOSの32bit版も同様に2038年以降の年代を設定できない
ちなみにWindowsではこういった問題はなく 32bit Windowsでも2038年問題には対応済み
実際に32bitのLinuxをどれかインストールしてみればわかる 2038年以降の年の設定ができないから 64bit Linuxではこういうことはない
32bit 64bitのubuntuで確認したが両方ともtime_t型はlong型で定義されていた FreeBSDでは64bit版は__int64_t型、32bit版は__int32_t型で定義されていた
>>125 で、結局32bitCPUで問題になる理由は?
それは、Cの組み方による問題で、32bitCPUでダメな理由にならんよね?
>>126 現在のLinuxの実装がそうなってるんだからしょうがない
AndroidだってLinuxカーネル使ってるしiOSだって2038年問題に対応してない
今から小ざかしい変更を加えるより64bit化した方が現実的
誤解のないように iOSはLinuxじゃないからどうなってるか判らないが おそらく、64bit版には2038年問題に対応してるだろうね
>>124 CiscoのIOSはUNIXじゃないけど
もしかしてCiscoのIOSは2038年問題抱えてるの?
25年前ならZ80使ってた。 25年後ならおれ死んでるから問題なし。
俺が死んでてもミクさんは死んでないからそうもいかぬ
32bitUNIX系OSでのtime_tの64bit化は
過去のソフトとの互換性の問題とかいろいろあるようだね
http://ja.wikipedia.org/wiki/UNIX この問題に対処しているバージョンもある。
例えば、SolarisやLinuxの64ビット版では、time_t は64ビットとなっており、
OS自身も64ビットのアプリケーション群も
約2920億年間正しく動作する。
64ビット版Solarisで既存の32ビットアプリケーションを
動作させることもできるが、その場合は問題が残ったままである。
一部ベンダーは標準の time_t はそのままにして、
64ビットの代替データ型とそれを使用するAPIを別途用意している。
NetBSDでは、次のメジャーバージョンである 6.x で
32ビット版でも time_t を64ビットに拡張することを決定した。
従来の32ビットの time_t を使用しているアプリケーションは、
バイナリ互換性レイヤーを作って対応する。
桜時計も2037年以降に設定するとクラッシュするよな。 NTPをなんとかしてくれ。
それは64bit越えを正しくハンドリングしてないNTPクライアントの実装の問題だろう
あれ、NTPはプロトコル的にはクリアしてるんじゃないの? CPU上でのunsignedとsignedの扱いの差みたいな手法でw
NTPの問題だかtime_tの問題だか知らないがYahoo!ガジェットも2038年以降に 設定したらクラッシュしたなぁ。まあ今入れてないけど。
正式仕様に問題がある場合と、そこに問題はないが 仕様を網羅しない実装が流布している場合、メディアでは どちらもまとめて何とか問題と呼ばれるだろうな
2038年以降も組み込み用途じゃ当たり前に32bit以下のCPUが使い続けられるだろうし、 32bit以下のOS/C言語でも、64bitで時間を扱う新関数/API/ライブラリを用意すべき 独自拡張じゃなく、標準化して全部適用で
>低価格LTEスマホ 日本じゃ出回らなくて 変わりに型落ちハイエンドが手に入るだけ
ARM鯖なんて普及するわけないと思ってたけど、 おわるのはやすぎw
まあ、x86に叶う訳ないよな…って思ってたまんまだし。 それもIntelのXeonどころか、AMDのエントリー向けにすら敵わんて…
この件に関しては64bit化の資金がなかっただけってことだろ けっこう強力な企業が参入してきそうなので弱小がんばったけどついていけなかったという
クラアイントはおろかサーバ分野でさえほとんどの用途で32bitで十分。
ARMサーバは仮想化支援機能のスペックが固まってから
PCみたいにハードが規格化されてないと厳しいんじゃないの。
ARMもそろそろ1つに決めてほしいね。PCみたいにユーザーが好きなOSを入れられるようになると色々と捗る
モバイル系は性能上げるよりひたす消費電力を下げてくれと
>>149 そりゃまあそうなんだが、逆にメーカーが好き勝手できるところが
x86に対する優位性でもあるわけで
組み込みならそれでいいだろうけど、 鯖でそれやっちゃいかんだろ。
すでにARMベースのマザーボードとか売ってあるし、 UEFIベースになるんじゃないの?
http://pc.watch.impress.co.jp/docs/topic/feature/20131228_629501.html 【司会】さきほど64bitの話も出ましたが、現時点でその恩恵はあります?
後藤弘茂氏
【後藤】みんなすごい誤解していて、ARMの64bitが
ほかのCPUの64bitと違うって事を全然考えてない。
ARMはともかく32bitの出来がひどい。
何がひどいか? RISCなのに汎用レジスタが16本しかない、
その内の3本はプログラム関連で使っちゃうので、
汎用に使えるのはたった13本。
これで、ロード/ストアアーキテクチャの
ハンドリングをしなきゃならない。
そうするとコンパイラが効率的なコードを吐けない。
ので、コードステップが非常に長くなる。
一方64bitになると汎用レジスタが31本、
SIMDメディアレジスタが32本だから、
コンパイラがものすごく効率的なコードを吐けるようになる
。
【山田】つまり今のARMの32bitはひどいと。
【後藤】ひどい。だって、僕の知り合いで
ネイティブARM 32bitに触れた人は皆
「変態命令セット」って言ってるし(笑)。
【山田】じゃ、なんでここまではやったんだろう?
【後藤】しょうがないから(笑)。
そういうひどいことがなくなるのが64bitのARMv8。
だから、コーディングも最適化も楽になるし、
コンパイラも速くなるし、全体的に高速化できる。
【山田】で、今までのノウハウは活かせると? 【後藤】ただ、デコーダが違う。 【山田】そこはコンパイラが面倒見るんでしょ? 【後藤】そう。だけど、開発者が最適化のために 苦労しなくて良くなる。 例えばARM 32bitの場合は、シフト・演算と並べると 速くなるとか、変な最適化がいっぱいある。 後は割り算命令使っちゃダメだとか。 だってCortex-A9までは割り算演算器がなかったから。 何それ!? 一体いつのCPU? って感じでしょ?(笑)。 それから(64bitの恩恵は)セキュリティモデル。 ARMのセキュリティ特権階層は、すごく変。 普通はRing0、1、2、3、セキュアバイザー、 ハイパーバイザー、OS、アプリとできるけど、 ARMの場合、これができない。 一方ARMv8からは4階層で、普通にセキュアな ハイパーバイザーを埋め込める。 おそらくiPhone 5sはそれを使ってて、 指紋データをそこに入れてる。指紋データをメモリに展開する時、 セキュアメモリ空間に移すには、そういう仕組みが必要になる。 だから(よく言われる)アドレス空間(のメリット)は3番目なんですよ。 【笠原】ARMv8Rすごい仕様じゃないですか? 【後藤】v8Rは気にしなくて良いよ(笑)。 【笠原】僕はあれを見て、なんじゃそりゃと思いましたよ(笑)。
そもそも、おなじRISC CPUでも、 Power、SPARC、Alpha、MIPS、PA-RISCは、本格的な32bitマルチタスクOSが動作するサーバ・ワークステーション用の ハイパフォーマンスCPUとして作られたが、 ARMは、組み込み向けの低コストCPUとして作られた ARMの32bitが他の32bit RISC CPUよりしょぼいのは当然といえる ARMが64bit化時に他のRISC CPU並みにまともなCPUになるのは、 ムーアの法則によって、格安CPUでも大量のトランジスタを使えるようになったから
64ビットARMのインストラクションアーキテクチャがまともなのは、32ビットARMとの連続性を断ち切って全く別のアーキを作ったからです
全く話がかみ合ってないww
普及するプロセッサは はじめローコストでローエンドで普及して 徐々にハイエンドに食い込んでいく感じだな ローコストな8bitモドキの16bitCPUの8088がIBM-PCに採用されたのも 携帯電話にARMが採用されたのもそうだし
おいおい、ARMおせーな、と思ってたら命令セットが足引っ張ってた面もあるのかよ。 64bitになってどうなるか見ものだな。
CISC CPUはレジスタ同士の他にレジスタ-メモリ間での演算もできるが RISC CPUはレジスタ同士でしか演算ができないから 13個のレジスタでは少なすぎるわな 一応R0からR15まであるが 汎用に使えるレジスタはR0からR12で R13はスタックポインタ、R14はリンクレジスタ、R15はプログラムカウンタだし
>>163 法則性を見出すとしたら当たっている面もあるが、
ARM登場まで32bit組み込みでMIPSは結構出ていたし、
ルネサスのローコストは軒並み外れている。
IntelもARMもローコストからハイエンドへ発展させる野心があったし、
DECやHPは組み込みをやるモチベーションはなかった。
ルネサスは売上安定の組み込みだけやっていたかった。
つまりは開発元のやる気の問題ではないか。
軒並み外れているってなんですか 珍しい表現なのでネット上のこの人の書き込みを特定できそうですね
>>166 H8がH8Sになったし!
組み込み向けPA-RISCだって日立が…
>>167 日本語勉強し始めて何年ですか?
>>168 そのレベルを普及と言ってしまったら
>>163 の説自体が成立しない。
日立はSuperH作っちゃったしな。
>日立の組み込みPA-RISC コレを知っているやつは弩級のマニアか関係者じゃ 俺もそんなものが有った事を忘れかけていた
>>164 前スレで既出の奴だとA15→A57で10%程度の性能向上
32bitARMがそもそもつぎはぎの命令セットだったからな。 コード効率(バイナリサイズ)はいいが処理能力は低い。 x86はコード効率が悪く消費電力も多いが性能は高い。 とはいってもARMの市場にx86で食い込むのは互換性の 観点から難しいんだけど。
175 :
えるえる :2013/12/29(日) 21:22:19.61 ID:9LOAdmyj
>>166 は論理的な思考ができないようだな。
普及するプロセッサはローエンドから普及すると言っているだけで、
全てのローエンドプロセッサは普及するって話じゃないだろ。
>>173 組み込み用かどうかは議論の余地があるが、
ローエンド用で低コスト設計なのは正しいね。
>>175 MIPSの普及についても166の間違いをしてみてくれ。
90年代にはもっとも普及したRISCだったけど。
間違いを指摘してみてくれ、だった。
179 :
えるえる :2013/12/29(日) 22:20:37.80 ID:9LOAdmyj
>>177 間違いというか基本的に命令セットは、その命令セットが使われている製品がヒットして
普及するかどうかに少なくとも支配的な影響を与えないんだよ。
実際は逆で、ヒットする製品に、そのとき要求仕様や要求単価がたまたま合致して、たまたま採用された
プロセッサが、ヒットした分だけ普及する。
親の製品がシェア30%のヒットなら、それに従属して30%分、その命令セットも普及するし、
デファクトスタンダードになるような超ヒットだったら、その命令セットがデファクトスタンダードになる。
基本的に命令セット自身を直接的な原因とした命令セットの移行という現象はおきないんだよ。
メインフレーム→ミニコン、ミニコン→WS、WS→PCの市場変化によって 命令セットが従属的に移行する(ようにみえる)現象は起こるけど、 それはそのとき主力だった製品にたまたま採用されていた命令セットが 従属的に普及したってだけで、命令セット自身は移行の原因や原動力ではないのね。
MIPSとARMならどっちが売れているか程度の差しかないが CISCからRISCへの移行は命令セットによるものが大きいのだな むろん直接的な要因としてはRISCのパワーやコストパフォーマンスが決め手だが
182 :
えるえる :2013/12/29(日) 22:32:23.85 ID:9LOAdmyj
>>181 CISCからRISCの移行は、ディスクリートCPUからマイクロプロセッサへの市場変化と、
メインフレームからミニコンへの市場変化に従属して、RISC WSが売れた分だけ普及しただけ。
直ぐにWSより少し下のセグメントであるPCアーキテクチャが台頭したので、
RISCかCISCかに関係なく、たまたまCISCだったPCによってCISCに移行した。
>>179 つまり、
P I C 最 高 !!
ですね
解るけど納得いかないです…orz
メインフレーム/ミニコンからWSへの市場変化 の間違いね
185 :
Socket774 :2013/12/29(日) 22:53:13.86 ID:lKtue8tO
>>158 x86は古い、(32bit)ARMが新しくて効率的だとか言ってた人はどこに行ったのか
>>179 いや、166はMIPSが普及した事から163の法則が一面でしか正しくないと指摘したのに、
その166の指摘が論理的でないと175は主張したわけだろ。
つまり、MIPSが普及していないか、MIPSはローエンドから発展したと証明するしか
ないと思うのだが。
まさか2行以上の文章を読めない人とかじゃないよな。
まあ、MIPSは結局はARMに負けて普及しなかったわけだから問題ないね。
まあプロセッサの歴史とか知らん人なのだろうな。
189 :
Socket774 :2013/12/29(日) 23:30:45.76 ID:MJ7ZcLJM
>>183 CORTEX-M0が出たからPIC消えるかな
家電からスマホ、PC、スパコンまで全部ARMになるな
>>163 の話(書いたのはおれじゃないけど)の焦点は、
普及したプロセッサは過去にはローエンドだった、なのだが…。
それじゃあプロセッサの歴史に自称詳しい
>>188 くんに、
MIPSが組み込みからからハイエンドへと普及していった経緯を
語ってもらおうかな?
>>166 がWSから組み込みに普及したMIPSを
>>163 の反例として挙げたが、
>>175 がそれは論理的ではないという。
175の言う通りだとしたらMIPSが組み込みからWSに発展したことになるが、
今度は175と同じIDの190がMIPSは組み込みからハイエンドへ普及した事を証明しろという。
お前がやれバカ。
MIPSの歴史は名著See MIPS Runの最初の方の章に書いてあるよ。 ミニコンやUNIXワークステーション用途の高性能マイクロプロセッサ。 その後の64ビット化も早かったよ。マルチプロセッサ構成にした時のキャッシュコヒーレンシの維持が当時弱点と言われていた
>>189 消えないんだな、コレがww
そしてPIC32によってMIPSの逆襲が始まる…って事は無い…
と思うけど、組み込み分野ではmicrochipシェア持ってるからなぁ
>>191 >>175 で、論理的ではないといったのは、
>>166 の
ルネサスのローコストは軒並み外れている
とかの下りだよ。
>>166 はローエンドならば普及する、みたいな内容でしょ。
含意と同値の区別がついてないって意味で、論理的じゃないって言っているんだが、
まあ、自分の書いたことを都合よく部分的に忘れる程度の人みたいだし、こちらの言っていることを
理解するのは無理なんだろう…。
>>194 そういう文章の行間を読み込む方が論理的ではない。
こちらは反例を一つ挙げているわけで。
190みたいなお馬鹿な文章書いちゃってかかなくていい恥かいたな。
無論、MIPSを組み込み向けだと思ってるわけないがな。 WSにも組み込みにも独立にある程度売れたけど、結局、最終的に普及しなかったんだから 今の議論の反例には残念ながらならない。
この話って、多分MIPSが普及したか、しなかったかのところの把握に食い違いがあるんじゃないか。 MIPSは広く使われテレビやSTBの中に入っているのでおれはMIPSは普及したと思う。
今はARMには負けてるがMIPSは組み込みでまだ存在感あるけど。 国内大手家電メーカーは日立除いて一時期全社MIPSに手を出してたし、 今でも使ってる所は多い。 この間国産の宇宙用MPUの記事見たけどMIPSだったね。名前が出てこないが。
MIPSが普及したかどうかではなくて、 ローエンドに普及して、それを足がかりにハイエンドに展開したパターンにはならなかったので、 今の反例からは外れるってこと。
MIPSが組み込みで結構つかわれている。過去にWSが売れていた、 ことはこのスレの住人なら常識であり、そんな水準の議論してないよ。
>>199 その理屈が成立するのならばルネサスのローコストが反例にはならない論法と合わせて、
どのような普及経緯であっても
>>163 の反例にはならないと言えそうだな。
というか、そもそも163の主張には無理があり、全く説得力が無いですね。
結局のところ、163は議論するに値しない穴だらけの主張で、一言で言えば事実ではありません。ということでこの話は終わりでしょう。
204 :
えるえる :2013/12/30(月) 00:10:40.55 ID:VVw5q/5Y
う〜ん、おれは
>>163 ,
>>175 は正しいと思うけど。
正しいというか、過去20年くらいの議論で、これ以上正しいと思える認識を知らない。
勿論、自然の法則の議論していわけじゃないので、99%以上例外はないとは言えないが、
大方の認識として正しいと認めざるを得ない。
これでこのスレの住人の大半を説得できないとあらば、素直に負けを認めざるを得ない…。
というわけで、おれの議論は終了。
>>204 俺は166だけど、一つの勝ちパターンとしてはアリなんだよ。
だから「当たっている面もある」と書いた。
でも論理的思考うんぬん言いたくなる年頃のヤツがこのスレに居た。
だから長々議論しているわけだが、ホントなら170あたりで終わってていいはず。
ん? 何故かIDが交互に変わってる。 205=201=198だ。
207 :
えるえる :2013/12/30(月) 00:23:16.53 ID:VVw5q/5Y
いや、ID追えばわかるが、論理的思考うんぬん行ったのはおれなんだけどw まあ、この議論は終了でいいや。
しかし、それに加えて、MIPSのようにハイエンドから初めて、プロセスルールのシュリンクによって普及価格帯に降りてくるという勝ちパターンも認めてしまったなら、 もはや163のような偏った主張はできないのでは。
俺は163に書かれている内容について、論理的思考が出てくるまでもなく単純に間違っていて、事実ではないと思います。 世の中には沢山のプロセッサが普及しているのに、視界の中にx86とARMしか見えていない視野狭窄状態なのでは。
要はウォーターフォールがいいのか、その逆がいいのか、でしょ。 それも有利不利程度の話でしかない。
実にくだらない議論でしたね。時間の無駄でした。
CPUの性能が上がらないからストレスでイライラしてるんだな
世の中POWERしか見えてないヒトも多いぞw MACオタどこ逝ったw
しつこいようだが、
MIPSは、WSと組み込みの両方でそれぞれ一定のシェアは取ったけど、
WSから、あるいは組み込みから、ハイエンドに向けて展開することで生き残こることがなかった、
すなわち投入したセグメント内で他の競合プロセッサに負けたパターン。
これは
>>163 の反証にも証明にもならない例。
215さんは、「MIPSは普及しなかった」という、ここにいる誰とも異なった見解を持っているのですね。
いや、一定のシェアを取ったって書いているけどw 日本語読めまつか?
いちおうリアルタイム世代だが、90年代って32-bit以上は組み込みの中ではハイエンドだった。 その組み込み内でのハイエンドでは一時期は確かに売れたけど、結局、そっから展開がなくて、 MIPSより安いARMにすぐ下から食われることになったわけだが。 ここでMIPS売れた売れた騒いでいるやつこそ後知恵でMIPS知っただけで、当時の状況追ってたのかな?
これだけ沢山の機器に載って、広く使われているものを、普及しなかったという。 ナイーヴとしか言いようがないですね。
どんな資料を持ってきたとしても「MIPSは普及しなかった」ということにはなりません。 それとも、現在シェア1位をとっているプロセッサ以外のプロセッサは全部普及しなかった、ということにしたい、という主張でしょうか。
>>215 つまり下から上に向かうのが君の定義する普及であって
上から下だったMIPSは普及とは言わないから反証にはならないと言いたいわけだろ?
君の定義から言えば普及は即ち
>>163 の主張の事だからトートロジーというヤツだよ。
一般的に普及と言ったら量的あるいは搭載率的な定義だろう。
それが現在のARMより下だから普及してないというのなら議論の余地はあるが、
215の主張は論理的かどうか以前に基地外のそれだ。
>>222 普及の定義の話なんかしてないぞ。普及という言葉に執着しているのは ID:hmB0QuYc であって、私ではない。
私が言いたいのは、
>>163 の最初の3行の意味をおまえらつかめてないでしょってだけ。
ローエンドで普及してハイエンドになるって書いてあるが、
MIPSは投入したセグメントで終了したので、ローエンド止まりで終わっただけ。
これは
>>163 のケースの反証にはならないの。ローエンドが必ず普及するって話をしているわけじゃないからね。
すげぇ。 どこのパラレルワールドだろうか。
つまり、222さんの説が正しく、普及という言葉の意味が独特のもので、一般の人々が普及という言葉から想起するものとは異なる定義だったということですね。
>>225 言葉の定義云々の話はしてないよ。
>>163 の最初の3行の意味を素直にそのまま読めば理解できる話です。
一定のシェアをとっても、それがハイエンドにつながらなかったら、そのセグメント止まりなのだから、
>>163 の反証のケースには該当しないでしょ。
>>163 の最初の3行はちゃんと読んで、意味を考えてね。
ええ。私は今やあなたの主張を完全に理解しました。 「普及するプロセッサとは、はじめローコストでローエンドで普及して徐々にハイエンドに食い込んでいく感じのプロセッサのことである。」ということですよね。
>>227 まあ
>>163 を書いたのは私ではないけど、そういうことだね。
主語は、ハイエンドで存続しているプロセッサは~
くらいが妥当だったろうが、意味はわかる。
>>229 まあ、ルネのRXとかフリースケールのColdFireなんでCISC
ローやミドルから売れてハイエンドに上がっていくパターンと、
逆にハイエンドで売れてローに降りていくパターンの両方があるのは事実だが
俺の見る限り前者が最終勝利しているようだ
なので
>>163 はそんなに違和感はない
もっとも例がx86とARMしかないなわけだが
>>230 ハイエンドからローに降りていくパターンって何かある?
MIPSはVAXに潰されたわけじゃなくてx86に下からひっくり返されたし、
組み込みもARMに下からひっくり返されたので、
上に普及する前に下から叩かれたので間に合わなかった解釈で問題ないでしょ。
それ以外に、ハイからローのパターンが知りたい。
ソフト的にはだいたい上のものが下に降りていく
何億個売れていようとシェア1位以外は普及していないととらえるような 思考回路にはなりたくないわ
だから、普及って言葉がさんざん引っかかっているようだけれど、
>>163 自然に読めば意味わかるじゃん。文章の整合性考えればそれ以外に解釈のしようないし。
なんでこんなのことが理解できん人が3人もいるのだろう…。
かつてのスマホはMIPSが強かったのに、なんで一気にARMになったんだろうね?
4人目です そろそろ自分のほうが間違っていると気付いてもいい頃ですよ 一応説明しておくと MIPS: ハイエンドWS用として登場し、より安価低性能な組み込みに降りてきた ARM: 当初はパソコン用ではあったが売れなかったのでPDAで再出発し、今ようやくより高価高性能なサーバー用も出てきた
>>237 最後の2行だけどそれは勿論把握しているよ。
ハイエンドWS用としてスタートしてx86に下からひっくり返された、
組み込みはWSとは独立にやったけどARMに下からひっくり返されたで
問題ない。MIPSのハイエンドと組み込みは徐々に下に普及していったわけじゃないから、連続性がない。
これはARMも同じ。ARMの投入時はそもそもパソコンより下っていうと電卓とかくらいしかないしな。
x86みたいにパソコンから徐々にタブレット、スマホに落としているのと違う。
ああわかった 同一アーキのラインナップと、CPU市場全体のシェアの区別をつけられない人だったんだ
MIPSはR3000, R4000, R5000と元々WS向けのものにちょっと手を入れて組み込み向けにしてたの WSと独立にやっただなんてとんでもない アルキメデスは当時の386マシンの3倍くらい速い超高性能機だったんだが、売れなかったので後継チップがあんまりなくて しょうがないからアップルと手を組んでPDA向けから再出発したの ここでアーキもかなり改訂された その後のStrongARMやXScaleなどはMIPSのように何かの流用ではなく、上位のラインナップとして新規開発したわけですよ
>MIPSはR3000, R4000, R5000と元々WS向けのものにちょっと手を入れて組み込み向けにしてたの >WSと独立にやっただなんてとんでもない それも知っているよ。コアのマイクロアーキテクチャはWSの流用。つーか、RISC WS系の組み込みは殆どそう。 それと市場セグメントが連続しているのは関係がない。MIPSの場合は、WSで売れなくて組み込みで出なおしたんじゃなくて、 WSがある程度売れている時に、PCとかすっ飛ばして組み込みを独立にやっただけだから、MIPSは。 で、WSと組み込みがそれぞれ個別にx86とARMにひっくり返されているので問題ないって主張。
というわけで、一度上で失敗して出なおしたとか、失敗してないけどハイエンドとローエンドを2刀流したパターンは 別として、ハイエンド市場から徐々にローに降りるパターンでは一般にうまくいかないでFAかな?
勝ったのがx86とARMしかない状況で一般論と言われてもなあ Cortex-MやQuarkが全面敗北してからもう一回言ってくれ
でも、反証材料が今のところないし、これからのx86vsARM事情でゆっくり検証すればいいでしょ。 ちなみに、ここでCortex-Mを出した意図はしらんが、Quarkはあっさり敗北すると思うw
一つだけ理由をあげるとすれば、 WSのおさがりCPUは小回りがあんまりきかなくて ARMはよく知らんがSHくらいのほどほどのが使いやすかったかもしれん(SHの上がPA-RISCだったし) しかしベンダーは儲かるハイエンドを売りたがる 慢心、ダメ、絶対
MIPSは組み込みの中でも性能重視の製品に使われたからな 携帯電話や携帯ゲーム機では使われなかった ARMは低性能だったがローコスト、低消費電力だったからこそ 携帯電話でよく使われ スマホという出荷量が億単位で、 ある程度性能が要求される製品に使われるようになったからな
あ、そういえばPSPはMIPSだったな
>>245 アセンブラで組むなら、断然ARMの方が楽だろうな
MIPSはCコンパイラを
使うことを前提に設計されたCPUだからな
>たまたま自分の知っている機器にMIPSが多いってだけでは? 年間6億超、3年現役なら累積20億、先進国と途上国では 密度に開きがあるから先進国ならそれこそそこらじゅうにゴロゴロしている 正直に、年数億とか3位とかの規模だとは知らなかったと言えばいいのに
MIPSは投入したセグメントで終了したパラレルワールドの人と いつまでも話してて文字通り平行線だろう。
ARMを変態ISAと言う人も理解できんのだよなあ 条件実行以外に珍しいところは思いつかないし(それも先例のNovaがある) 変態というなら遅延分岐のほうがよっぽど MIPSはフラグがないので多倍長演算やオーバーフローのハンドルに苦労するし SPARCのレジスタウィンドウは言わずもがな Alphaはとくに変なところはないけど POWERは分岐とか独特だよね
>>239 227を読んだ後、237を読んでみてください。何億個売れて、どれだけ広く使われようとも227の普及の定義には当てはまらないのです。
この人と言葉が通じず、まともに議論ができないのは当然です。
ARMやSHは汎用レジスタの少ないRISCというのが変態。 C言語の使用を前提としており組み込みでは使いにくい。 安いので大量に売れるものであれば開発費の元が取れるができれば使いたくない。 一方MIPSは68Kと並ぶ美しいプロセッサでプログラマには人気が高い。だから68Kより高性能な組み込みCPUが必要になった時に使われた。 遅延スロットなんかNOPを入れとけばいいしパイプラインストールが無く実行サイクルが読める分優れた仕様だった。スーパーパイプラインとかスーパースカラとか出てくるまでは。
254 :
Socket774 :2013/12/30(月) 15:15:26.31 ID:SjE+mmAK
>251 話をぶったぎって悪いけど そう言えばAlphaって今は完全にオワコンなの? Alphaをマルチコア化してSIMDを強化していったら今でも十分に通用する? リアルタイムでのAlphaを知らない世代です
アセンブラを手書きしているような速度が要求される部分で遅延分岐スロットにNOPを入れるって矛盾してると思う。 遅延分岐スロットに書かれた命令は分岐をする場合もしない場合も必ず実行されるので最後に実行する命令を遅延分岐スロットに書けばいいだけだからNOPを入れる理由は何もない。 それすらしないようなやる気のない人がアセンブラを手書きするくらいならCで書いて最適化に任せたほうが遅延分岐スロットが有効に使われて効率のよいコードが出来るんじゃないか。
>>254 AlphaはSamsungが買い取ってそのまま消滅
Samsungはスマホ向けにARMv8-Aの独自コアを開発中
>>254 今だとごくフツーのプロセッサ
登場時は先行アーキの欠点を注意深く取り除いて、実装も気合いが入っていたのでぶっちぎりに速かったけど
>254 Alphaはあの当時の製造プロセスであの高クロックだったことが要で、 それができたのは職人芸のおかげだと聞いた。ソースは2ch クロックに見合うように当時としては潤沢なキャッシュやメインメモリバンド幅も 与えられていたから、ベンチマーク番長ではなくちゃんと速かった 中国がやってるプロセッサ開発のうちShenWeiは "inspired by DEC Alpha" と言われているな。 FeiTeng はSPARC、Loongson(Godson)はMIPSの影響が多大
68kは、昔かわいいと思っていたアイドルの写真を今みるとダサく見えるのと同じ気分だな x86の独特のタイトな設計は今でも通用するが
たしか、AMD64の計者は Alpha開発チームにいた人が関わってたはず
自作のしょぼい数値計算プログラムだったけど Alphaは当時のIntelの5倍くらい速くて驚いた覚えがあるなあ gccじゃ全然速くなくて純正のコンパイラ使わないと駄目だったけど
Wikipedia情報
http://ja.wikipedia.org/wiki/X64 AMD64命令セットには、
インテルのIA-32アーキテクチャに指摘されるアンバランスで特異な部分を、
きれいで使いやすいものにするという目論見があった。
また、同時に先行している 64ビットRISC環境に似せた
アーキテクチャにしようと考えて設計された。
DEC Alpha の設計者の一人 ダーク・メイヤー が
AMD64仕様の作成に関わり、
彼をはじめとするDEC出身者の経験がこのプロジェクトに活かされた。
私は組み込みをやっていましたし今もやっていますが、程度の低い組み込みはやったことないです。
そのMIPSなんてレジスタが8+2しかないのでそれは私のおいなりさんです
もうx86でVCのコンパイラでイイじゃん。
>>228 ハイエンドの定義がわからないな。Xeon E7は他のアーキテクチャの
存続を許さないほど売れてるだろうか? E5なら圧倒的な数だが
E5が入るような定義でいいのか、ハイエンドって
1個あたりのロイヤリティがMIPSの方が高いから
MIPSはARMより高性能向け用途が多いんだろうな
http://eetimes.jp/ee/articles/1205/16/news007.html ARMは2011年に、79億個のチップのロイヤリティを手にした。
2011年のチップ1個当たりのロイヤリティは平均4.6米セントで、
ARMのロイヤリティ収入は2007年から2011年にかけて
年平均19%のペースで増加している。
これに対し、同期間の半導体業界全体の売上高の増加率は
4%にとどまっている。
一方、MIPS Technologiesが2011年にロイヤリティ収入を得たチップは
6億5600万個で、チップ1個当たりのロイヤリティは7米セントだという。
CPUコア市場では、SynopsysのCPUコア「ARC」が10%のシェアを獲得している。MIPSはシェア6%で、Synopsysに次ぐ市場第3位に位置する。
>>269 の
>1個あたりのロイヤリティがMIPSの方が高いから
>MIPSはARMより高性能向け用途が多いんだろうな
MIPSは高性能向け用途が多いから
1個当たりロイヤリティがARMより高いんだろうな
という意味で書いたつもり
「MIPSを捨てた、というわけではない」 撤退するときは、みんなそういうんだよな。
いまどき論理レジスタ数なんて性能面でたいした問題じゃないのだけどな 増えたら増えたでデメリットも生じる
>>251 ARMは、プロセッサとしてはべつに変態ISAではないけど、
RISCプロセッサとしては変態ISAだよ
RISCプロセッサとしてはかなりおかしな部分がある
撤退しないときも撤退するときも、同じように撤退しないという
進出する前は「あんなものはクズ」ってのも定番
ヘネパタ信者って今でもいるんだね。 MIPSなんてチップ動作周波数が3〜4GHzに張り付いている今、 作りやすいだけで性能出るアーキテクチャじゃないのに。
早く512bit×32レジスタでブイブイ言わせたいぜ
AMD64も汎用レジスタ16本しかないよな。 32ビットARMがそれで変態ってのはよくわからん。
x64が超がつく変態なだけであってIA64が正しい64bitCPU。
AVX2は、内部128bitの実装のことを考慮してか上位128ビット・下位128ビットを またいだシフトとかシャッフルが使いにくくなってるのがつらいですね。 512ビットに行く前にAVX2.1を用意して欲しいというのが正直なところ AVX-512は、1バイト×64も2バイト×32も出来ないから個人的には 置いてかれた感があります。 (OpenCLのコードをそのまま動かすのにはいいかもしれないけどね)
>>279 x86はレジスタ-メモリ間の演算が出来る上
base + index*scale + displacement
みたいな演算を組み込めるからRISCより遥かにレジスタ数要らないよ
綺麗であることと実用的であることは全くの別問題なのだ。
Cortex-A9以降はOoO+分岐予測がある都合、プレディケートを使ったほうが
かえって性能が落ちる傾向が見られた。
これは32ビット固定長のうち、4ビットに実質意味が無くなったようなもの。
皆、親切やな つか最初の記事の後藤の発言で既出なのに これで理解できない人もいるのな >これで、ロード/ストアアーキテクチャのハンドリングをしなきゃならない。
op [base+index*n+ofs32 ],imm32 これと同じことをRISCでやると7命令、ワークレジスタ2個が必要。 ただしこんなのそうそう使わないからあまり意味はない。
load + ops + store はx86でも遅いから使うなって方針でしょ MMX以降の追加命令もメモリ間演算はほとんどload+opsだけだし。
read-modify-writeで割り込み禁止にしなくていいというささやかなメリットはあるが アドレッシングの直交性とやらのために用意するのはもう無意味だな
「BroadcomがARMv8採用で大勝利!」とか節操の無いことを抜かす輩もいるわけですが ネットワークコントローラならIntelすら10年以上前にARM採用してたっつの (XScaleベースね) んで、サーバで先行するMIPSがどれだけ影響力を持ってたか考えると・・・ね。
ネットワークコントローラとか外部SATAコントローラやSASコントローラなんかも アーキ的に主流なのはARMなのかね?それともMIPS?
>>289 ネットワーク系ってもピンキリだな。
家庭用のブルーター辺りだと最近はARMが一番多いんかな。一昔前はMIPSも結構あったと思ったけど。
10万前後の業務拠点向けだと、NECはFreescaleのPower、YAMAHAは
色々使うけど、MIPS多し、CISCOはどうだっけ?1812j辺りはNECと同じくQICC使ってたと思ったから、
890シリーズも同じならPower系だな。
スイッチも制御系はARM/MIPS/Powerと有るけど、最近のだと、ARM or Powerっぽい気もする。
RAIDコントローラーはぶっちゃけ、単体で売られてる物はほとんどLSI独占状態。
んで、こいつはPowerだったはず。
MarvellはIntelから買ったXscale使ってるはずだから、ARMだな。
その他自社開発は、分からん。けど、ARMかPowerが主で、MIPSはすくねーんじゃないかな。
ブランド的な意味でのXScaleの系譜は途絶えてる。 WileressMMXを統合したARMADAシリーズはともかくとして Cortex-Aシリーズをそのまま使ってるPXA9xx, 10xxシリーズを XScaleの後継と呼んでいいかは・・・
>>290 家庭用ルーター系って、CPUのIPの値段が占める割合はかなり小さいが、
CPUを別系統のに替えるとソフトウェア的に大変で開発費が増えるので、
かつてMIPSを使って他メーカーは引き続きMIPS、かつてARMを使って他メーカーはひきつづきARMとか、
むかし使ってたCPUをそのまま使ってる印象だな
安wifiルータに入ってるrealtekのSoCはMIPS(Lexra)だね
良く分らんがすごい自慢だ。
レジにもATMにも券売機にも全部Windowsだしべつにおかしくないじゃん
記事見てないからよくわからんが、次世代でXPでいいのかという疑問はわくw
WindowsXP Embeddedは結構広く使われてるよ。飲み屋の 注文タブレットなんかにも入ってるものがある。 ああいう組み込み系端末はウォッチドッグタイマーがあって ソフトウェアから定期的にレジスタをクリアしないと自動的に 再起動がかかるシステムになってるんだよ。
こないだ見たアーケードゲーム機はwin7 Embeddedだったな。 確かにいくらEmbeddedとは言え、今更XP?とは思う。
ゲームの場合、DirectXのバージョンやGPUドライバ問題もあるから、 XPじゃ駄目だったんでしょう WindowsXP Embeddedは2019年まで延長サポートが提供されるし、 無理に新OSつかう必要も無い
「次世代」がマジなら5年しか持たないOSじゃまずくないか? そんなにひんぱんに入れ替えするものとも思えないが
次世代といっても数年前から稼働してるはずだが 具体的にいつとは思い出せないがだいぶ前にこれ見て最近の自販機は結構すごいなと思った記憶がある
>>301 ホームページ見たら2010年に一台目を設置している模様。
まあ現在後継機は無いようだが。
少なくとも、ただの飲料の自販機にWindows載せてでっかい液晶積む必要はない そんな自販機極一部の特殊用途に使われるだけで、 コスト・メンテナンス問題のために街の飲料の自販機に使われることは無い
後継機出るまで次世代機だから!
その次世代型自販機てスタンドアロンなのん?
Atom 330 + XP Embeddedあたりなら、いわゆる「中の人」やってたことがある。 少量生産システムの制御には強いんだよね。コスト的な問題で。
>>306 駅に置いてあるPASMOやSuica対応自販機だし、
たぶんLANに繋がってるんじゃね
コカコーラのやつならWiMAXとかATM網に対応してた
常用電源を用意できる所ならなに動かしてもあんまし問題ないんだよね
HDD積まなきゃいきなり電源切っても壊れることないしな。 GUIやネット回りはWindowsの開発コストが圧倒的に安いからな。
まともに作り込もうとするとコスト跳ね上がりますがな
特定プログラム、接続先が限定、DNS使わず未使用ポート閉なら問題ないんじゃね
315 :
Socket774 :2014/01/02(木) 08:06:57.78 ID:WAxpZYLv
Vistaが転けた時はLinuxの時代が来るかと思ったけど、 蓋を開けてみればXPを使い続けて待ち続けて7に移行し、 組み込みまでWindowsが増えてるとは…
GUI OSは、ボランティアベースのフリーのはなぜか流行らない やっぱり、金貰って会社から指示受けて働く人がいないと、 それぞれ個人がやりたいことだけやっても、 だれもやりたくない部分がまとまらないんだろうな
マニアならともかく、素人に使わせようとしたら、だれかがきっちりまとめてないと苦しいだろうね
金もらっても出来上がるのがWin8
じゃあ、金をまったく貰ってないOSを教えてもらおうか
Windows8の真似しなくてもいいのに真似して作ったのがUbuntuのUnityデスクトップ
最初端末の開き方すら分からず吹いた記憶がある>Unity あんな直感的じゃないUI誰が設計したんだよっていう Windows8の真似なのか?Win8よりは相当前じゃない?
正確に言うとMS-Office 2010から採用されたスタートスクリーンかな。
あの独善的なUIのせいでユーザー離れを起こしてるのもWindows 8と同じ
期待に違わぬ団子の老害ぶり
327 :
Socket774 :2014/01/02(木) 22:08:00.50 ID:Vh6uhXx3
なぜどの会社も改悪を行うのか
今までと変わったというだけで改悪だからな
売るために変更のための変更をやってしまうから。
ユーザもUIに投資してて 変更されるとこっちも金がかかるってわかってて変えてるんですかね
Windows8は、従来通りキーボードとマウスで操作するデスクトップユーザーには従来と同じものを提供したうえで、 タッチパネル向けUIも作ればよかったのに、 従来型ユーザーにもへんなUIを強制したのが悪かった OSは、Windows7より軽く高速になったのに、UIのせいで評価ガタ落ち
あれはどう考えても機能的でない。 デスクトップを隠してしまうために、オンラインヘルプを確認しながら操作、 みたいなのができなくなってしまった。
UI変えるのはいいけどいろいろ微妙すぎ 素直にAndroidのギミックパクればよかったのに
>>332 デスクトップ画面とメトロ画面の分割は一応できるぞ
OSXのiOS化が侵攻中だからMSのやってることは間違いじゃない ただAppleが全てにおいて正義と言えるかどうかは知らないが
検索チャームやマルチタスク管理の操作が良くない メトロアプリは基本的に全画面表示なのにその画面内を触らせることになる マルチタスク管理の整合性もとれてない 例えばデスクトップ画面でスナップビュー使ってメトロアプリを中止することはできるけど メトロ画面でスナップビュー使ってデスクトップアプリを中止できない できないだけならまだいいけどデスクトップ画面まるごと中止みたいな操作になる やってもスナップビューから一時的に消えるだけで何も起きない もうバグの領域
>>321 Linuxもサーバが商用で成功してから
格段に使いやすくなって安定性も増したよな
Lindows! Lindows!
>>334 やりたいのは「分割」じゃなくてデスクトップ上にアプリをウィンドウ表示なんだよな
8.1で復活したスタートボタンもコレジャナイ感が漂ってる。
まあコマンド実行とシャットダウンだけでもできるから使えなくは無いが。
Vistaや7のスタートメニューってサイズが固定でそれ以上デスクトップを
覆い隠さないから優れたデザインなんだよね。
なぜ優れたものまで否定するのか。
>>335 MarvericksのどこがiOSライクなん?
OSXはいい意味でも保守的だぞ。
Vista全否定厨ばかりだと思ってたがそうでもなかったんだな。
俺はVista出たときからx64版使ってたし
>>341 ああVistaのx64はいいOSだっだよね。メモリいっぱい積めば積んだだけ快適になるし。
Vistaは、メーカーPCがメモリ512MBしか無いのにVista積むとか、かなり酷かったからなぁ C2D以降のCPU+2GB以上のメモリ必須みたいなOSなのに、 糞スペックPCにまで積まれたから
まるでPCメーカーが悪いみたいな
OSの構造変わって、バグ、互換性問題が噴出したけど筋は良い先代と 先代のトラブル解決とボトルネック解消した後継OSというのは 2000(一般ユーザーには普及せず、ビジネス向けとマニア主流)→XP Vista→7は似てると思う Vista全盛期はチップセットとメモリの世代で高かったのが 7登場時は、DDR3メモリと円安、DRAMメーカーダンピングが重なってたし プリインストールOSも32/64bit選択の過度期を経て、64bitデフォに早くに切り替わった 今なら、Vista/7スルーでのXp→8.1(デスクトップ固定)への買い替えも悪く無いと思う Aeroの半透過表示を知ってるとショボく感じるし
>>339 スタートメニューとメトロアプリを同列に語るのはおかしくね?
8のスタートスクリーンもMetroアプリみたいなもんでしょ わざわざ広いデスクトップ画面をすべて覆い隠す必要はどこにもない。 隠されたくないならマルチディスプレイ使えっていうならまあ仕方ないが。
348 :
Socket774 :2014/01/03(金) 13:47:48.75 ID:vTNy4knm
話をぶったぎって申し訳ないですが Apple(旧P.A.semi)がARM32bit互換を排した完全にARM64bitのMPUを設計したら 旧DECのαと比べても性能のいいMPU(素性の良いという意味)ができるものかな?どうだろ
最悪や
まずARMv8のどのへんが素性が悪いのか言ってもらわないと
351 :
Socket774 :2014/01/03(金) 13:59:23.75 ID:wnSbJcM8
>>343 知人がその位のスペックのPC持ってたが、
常時スワップ状態で全く使い物にならなかったわ
352 :
Socket774 :2014/01/03(金) 14:01:40.88 ID:vRQXV4cw
alphaはハイエンドはともかくローエンドの性能は決してほめられたものじゃないわけよー なので何を聞きたいのかすらわからんのだ
無根拠でデタラメな妄想でも、とにかくアップル最強ホルホルホル って言いたいだけだろ
PCのCPUが100MHz競争やってたころのALPHA200MHzは 強力だったけどね。見せ場はそこまでだった。
少なくとも他を倍以上引き離せるようなCPUアーキテクチャはもう無い('A`)
僕のPCに入っているCPUが既に倍以上引き離されています
Alphaが他のCPUより高クロックだったのはアーキテクチャじゃなくて優れた実装 (物理設計)の賜物だったんだが
アーキテクチャにも高クロックむけの工夫はあったけどね 8KBページサイズとか
360 :
Socket774 :2014/01/03(金) 23:34:11.04 ID:vTNy4knm
ARMv8と最近の一番新しいAtomだと1コアあたりの性能は どっちがよさそうなのかな?
あとはなんだっけ、FPUの遅延例外もだな
ARMv8って言っても色々あるがA57としてもクロック次第だな IPCはA57の方が良さそうだが28nmじゃクロックが上げられない 前スレの3DMarkの結果だとZ3770はA15-1.9GHzの1.3倍くらい速い Z3770が2.4GHzならZ3770とA15のIPCが同じくらいになるが、 Z3770の3DMark時のクロックがよく分からない(1.4GHz〜TB時最大2.4GHz) A57はA15より10%以上速いらしいが条件不明でよく分からない
果たして、レジスタ数が増えるから性能が伸びるという理屈は正しいのか? Cortex-A9だとLoad/StoreポートにNEONがぶら下がる構造だったりしたから 参照するデータがレジスタを超えるコードだと性能低下が激しかった。 たしかに論理レジスタ数を増やせば多少はよくなるけど、一番大きいのは アーキテクチャの実装の問題でしょう? A57はA15の64ビット版という感じで、AthlonXPがAthlon64になったほどの伸び幅 すらないと思ってる。
まあ多少盛られる傾向がある公式発表で10%程度なのでそうなんでしょうな
レジスタが増えるとスピルが減る、もしくはよりアンロールできる それだけ
A57のほうがキャッシュも増えてるし アウトオブオーダーとかも強化されてるらしい
少ないので足りるように作ってたソフトは、もともとそんな高速化しないだろ
ARM 64bit版は本家とAppleカスタムのどちらが上になるのだろうか 見物だな
そもそも単純な疑問なんだけど appleのアレは A64コードだけが速いんだっけ? A32もthumb2も皆速いんだっけ?
普通に考えたら、Appleのは「iOSでよく使う」部分が速いんじゃね? 何bitとかじゃなく
>>368 本家より"良いモノ"を作れるメーカーしか作ろうとはしない気が・・
性能よりも今注目なのはappleが設計部隊をどこに捨てるかなんじゃね?
なぜ捨てると思うのかね
>>373 >しかし、CPU性能はというと、8,197対7,783(同)で、iPhone 5を若干下回る結果が出ているのだ
…32bitだと駄目なのか
>Futuremarkでは64bit版の3DMarkを作成し検証したところ、性能は向上したが、その割合は7%に留まり
>64bit化が物理テストの結果には大きな影響を与えないことが分かった
…
というか、そのベンチに相当するような使い方をiOSじゃあんまりやらないんだろう。 その記事のグラフだけ見ても物理演算以外は順当に上がってるんだし、取捨選択としては妥当では
28nmで無理やり64bitにしたり いまどきメモリ1GBしかないし いろいろいびつなんだよな iPadでも1GBとかびっくりしたわ
別に64bit化は無理じゃない。 R4000は20年以上前だ
ARMによるとA57は16nm推奨 それを28nmでやるんだから無理がある いまどきデュアルコアだし
確かこの板ではシングルの性能いまいちでコア数重視のどこぞの CPUはぼろくそにけなされてなかったか
すくなくとも、ARMの場合、64bit化で今風のまともなRISCプロセッサになったので、 ARMの場合、32bit用プログラムを再コンパイルして64bit化するだけで 性能向上が期待できる
>>382 性能向上も10%程度らしいから、
コンパイルし直すだけで10%と思うか、
OSとか色々対応させても10%と思うかで違ってくるかな
7-wayってデコードとリタイヤの帯域が7命令ってこと? そんな実装モバイル向けであり得るのかいな
3wayの4コアと7wayの2コアだからそんなもんじゃないの
SMTとか?
7wayだと命令フェッチだけで28B/clk食うんだよね 重い実装だとPOWER7の6-way、POWER8の8-wayというのはあるが これらはモバイル向けじゃない上に387の言うようにマルチスレッディングで埋める前提の数字だよね
A15版が28nmな件
391 :
Socket774 :2014/01/06(月) 16:27:24.60 ID:9vajQsoN
威勢のいい事言ってたのに結局28nm止まりか…
20nmなら384SP積んでたかもなぁ denver版は20nmでお願いしたいものだ
モデムが不利な以上、ハイエンドでQualcommとは戦いにくい 下の方でMediaTekと戦うなら28nmだろう
TSMCの20nmプロセスが使えない理由は何だろ? 利用コストが高すぎるから、それともプロセス技術が 未成熟で歩留まりが上がらないとか 原因になる要素が色々あってよく分からない
20nmラインは確保できただけ全部Tesla/Quadro/GeForceに突っ込んだ方が儲かるから。
両方同時に出るの?
Tegra K1は32ビットと64ビットの2つのバージョンがあり、32ビット製品の搭載機器が2014年上半期、 64ビット製品の搭載機器が2014年下半期に発売される予定。
モバイル用途で64bitは無駄以外のなにものでもない。
LPDDR3は今年から8Gbitが出回る ハイエンドスマホのメモリ容量は4GBに達するだろう 来年以降のタブレットをなんかだと確実に4GB以上いく
iPad<……
nvidiaは、20nmはまずはハイエンドGPUからだろ ハイエンドGPU用ダイをまずは20nmで生産して、 順調に生産出来てかつ低コスト化の目途が立てば、 モバイルチップにも利用するんじゃね?
マスホに4GBも積んだら無駄に消費電力が増えてさらに使用時間短くなるだけ。
7命令同時発行、とはまた違うのかな? SMT必須な気がするが、後回しなのかなあ。
ARMは即値フィールドが12ビットしかなかったり メモリアドレッシングもx86に比べて貧弱なので 実効オペレーション数がx86を上回るとは限らないところは注意ね。 並列度をそのまま性能に置き換えたところで意味は無い。 3Way SuperscalarのCortex A15が2WayのAtom並みかそれ以下の 性能しか出せてないことからも明らかだが。 まあこれはApple A7でも同じことが言えるけど。
>>405 SMTだともうよ
マルチスレッドも云々言ってるから
そういやdenverはVLIWだってセミのチャーリーが言ってたが その場合だとパフォーマンスはあまり期待できないかもなぁ ただコードモーフィングが面白そうではある GPU絡みでね
1スレッドでどのくらいの同時発行目標なのかはわからないけど、 結構シングルスレッド性能良さそうで面白い パイプラインの詳細はよ
まあ4コアA15と2コアDenverだから、 DenverはA15の2倍くらいのシングルスレッド無いとね
正直、コードモーフという言葉には良い印象が無い トランスメタほどモッサリという言葉が相応しいCPUは無かった
ARMをVLIWに変換? ないと思うけどなあ。
わざわざ普通のRISCで周りくどいことをする理由が分からんな ARMv8の仕様が固まる前に作り始めたからとかだろうか
nvidiaがtransmetaの技術者を雇ってるとか effecionと命令並列度やキャッシュサイズが一致するとか 変な状況証拠は揃っているようだ
じゃあ実はx86も動くとか
腑に落ちない点はいくつかあるものの このネタが本当のものとしてあえて理由を強引に探すと VLIWならばハードの設計が格段に楽だろうというのは想像に難くない
本デコード前にヒント情報を付加して複数命令列をVLIW的に扱う、とか出来ないかな。 あ、それってバンドルか。
そもそもTransmetaがなぜコードモーフィングやってたかというと 「ModRM+SIB+DISPをダイレクトに解析して実行するためのハードの 実装というクリティカルな部分をIntelが特許取得してて、特許を回避して 高速実装するために別の切り口での最適化が必要だったから。 本当に内部VLIWだとするなら、もともと固定長フォーマットだから x86のデコード&変換ほどにはコストかからない気がする。
あまり詳しく知らないが、VLIWって既存バイナリも 苦手にしないものだったっけ
こりゃ久々に後藤ちゃんが喜びそうなプロセッサだなw
424 :
Socket774 :2014/01/08(水) 00:20:41.14 ID:zZwiBkwN
CPUは、暗号化とかハッシュとかの専用命令が実装されて高速に処理できるようになったりしてるが、 なんでDCT(離散コサイン変換)とか、gzip/deflateの専用命令が実装されないの? これが実装されれば結構速度アップする気がするよ
儲からん
>なんで〜実装されないの? DCTとかはいままでのSIMDで十分に恩恵があるから つか、たいていSIMDはそのために導入されています >速度アップする気がするよ 気のせいです。 これ以上踏み込んでもパイプラインが 複雑化して逆に遅くなるだけかと
ま、それじゃ足りんという向きには GPUなりXEON-Phiなりで並列化するのが王道かと 大昔にはDCTのASIC化と言った話も聞きましたが 最近はあまり聞かないような
CES2014に20nmや16/14nmFinFETが全く出て来ない件…
スマホ関係のSoCとかは2月のMWCかもね
Transmetaの亡霊や!!
CPUからこうもっとシームレスにGPU使えるようにならんのか。
同じCPUの他コアですらシームレスというわけにはいかないからねえ。コプロセッサにまで仕立てればなんとかなるが並行動作しなければパフォーマンスのメリットは薄い。
ほとんど話題にならない携帯電話(ガラケー)に使われているプロセサ。 その性能って意外に高くてPenM 2GHz相当あるらしい?
どっちにしたって、GPUに喰わせる命令セットは別に覚えなきゃいけないしねぇ 面倒である事に変わりは無いよな…
>>434 前使ってたのはスナドラの1GHzが載ってたけど、
今は何使ってるの?
GPGPUも一般向けじゃ全然盛り上がらないしな SIMDだけで手一杯だわな
>>434 ガラケー用は3年ぐらい前のARM1GHzデュアルあたりでに進歩止まってますがなにか
ガラケーは、Linuxベースになってからもっさりしてどうも気に入らんかったわ で、ガラケーがいつまでももっさり解消しないのに、iPhone3GSでもっさり解消して、 iPhone3GS出た時点でもうガラケーおわったなって感じた
>>439 やっぱりGPUのようなSIMTと比べると制限が多いしね・・・
>>441 CPUオンリーのOpenCLランタイムあるけど?
OpenCL 1.2準拠のコード動かせるじゃん
どこにGPUより制限があるの?
【SSE/AVX直叩きだとできてCUDAやOpenCLにできないこと】
・スカラに落とし込んで柔軟な分岐が行える
・1バイト/2バイト単位のオペレーションの充実
・AoS構造のままでもデータを操作できる
・SIMDレジスタ上での処理単位のシームレスな変換(例:2byte×8→4byte×4)
・レジスタ上の要素のシャッフル
→SIMTでいう近傍の「スレッド」間のデータ交換にわざわざメモリを介する必要が無い
GPUより制限があるとかどの面して言ってるのかさっぱりわからんな。
カメラの画像処理系は大抵のSoCに専用回路が入ってるのでは? BayTrail-Tにも入ってるし GPUにやらせても電力効率は上がらんだろう
Intelと各FPGAベンダーって単にFab貸しだけじゃなくて 「GPGPU氏ね」で利害関係が一致してるからね
>>442 OpenCL/CUDAのほうが制限多いのは同意だが…
> ・1バイト/2バイト単位のオペレーションの充実
充実してるとは言えないけど一応CUDAにはあるだろ(vadd2とか)
> ・レジスタ上の要素のシャッフル
これもCUDAにはある
それと制限ではないけど
> ・AoS構造のままでもデータを操作できる
まともなギャザー持ってるGPUのほうが簡単な場合がある
> ・スカラに落とし込んで柔軟な分岐が行える
SIMDと分岐混ぜるよりはSIMTだけのほうが簡単な場合がある
> ・AoS構造のままでもデータを操作できる > SIMDと分岐混ぜるよりはSIMTだけのほうが簡単な場合がある 分岐が少ない、かつショートカットができない演算でだけはGPUが 有効なケースもあるだろうね。 しかし、「枝狩り」するだけで演算量が1〜2桁変わってくるような演算も 多々あるってことよ。 こういう場合はスカラに落とし込んで演算を詰め直す必要がある。 似非「スレッド」という概念に縛られるGPGPUのプログラミングモデルでは 枝狩りをエレガントに扱うことができない。
まーた団子の極端なケースの一般化がはじまった
団子がCUDAのことをよく知らずに話してるというのはわかった
枝狩りなんてビッグデータ分析では当たり前にやるぞ? 実際GPGPUでの並列化のボトルネックになってるのが枝狩り処理の コストの問題で、CPU+ディスクリートGPUだと、距離が離れすぎてて CPUに書き戻して処理するのもGPUでやらせるのにも遅い。 AMDはCPUとGPUの距離が近いからこういう演算に柔軟に対応できる とか言ってるが、俺に言わせれば最適なのはAVX-512。
最強談義は他所でやってくれ
GPGPUが使いにくいからこそ、Xeon Phiが売れるわけで カタログスペックだけで売れてるわけじゃないよ
AVX-512ってメインメモリの帯域足りるのかな? Xeon PhiみたいにGDDR5が載ってるわけでもないし
>>449 知ってたらあんなものがLINPACKやN-Body以外でまともに使いものにならないことわかるだろ。
>>488 カタログスペックのFLOPS数だけでトータル性能が決まるような極端なケースの話は
俺はしてないぞ。もっと実用的なアプリケーションで当たり前に直面するボトルネックの問題だ。
SIMTなんてものはSIMD+プレディケートに擬似スレッドという皮を被せたもの以上のなんでもない。
あんなものは害悪。
>>454 そんな話はしてない
団子が間違った情報でCUDAを叩いたってことを言っただけ
456 :
Socket774 :2014/01/10(金) 00:44:19.85 ID:ESmbJ23m
HPCは完全にGPGPU一色になってCPUは脇役に追いやられたからねえ
HPCつっても演算用途による。GPUはどこまでいっても ストリーミングプロセッサ以上にはならないので、そういう 用途(同じフォーマットのデータにバッチ処理的に使う) には向いてるけど、柔軟性がまるでない。
>>442 はなにも間違ってないだろ
たとえばSSE4.2 string searchに相当する命令とかあったっけ?
Warp内のshuffleは確かにKeplerで「ようやく」実装されたけど、
もちろんそれ以前の実装ではハード的にサポートされてない。
そもそもリダクションを記述するのならベクトルを隠蔽しないほうが
はるかに可読性は高いわけで。
ArBBとかCilk++のエレガントさに比べるとCUDAとかOpenCLのあれは
言語設計が根本的に間違ってるとしか言いようがない。
定期的に貼らないとこういう
>>456 みたいなバカが沸くね
http://www.top500.org/lists/ 12Jun 12Nov 13Jun 13Nov
Intel Xeon Phi 1 7 12 14
NVIDIA Tesla 53 50 40 39
AMD FirePro 2 3 3 2
※混載の場合は重複カウント
残念だけどGPU搭載スパコンは減少に転じてます。
TOP500で使われるLinpackは、もはや一般の処理速度の指標じゃなく、 特定の特殊な処理速度の指標だからなぁ Linpack速度と、実アプリの計算速度がリンクしない場合が多くなってきた
Xeon-PhiはGPU搭載にはカウントしないのだな。 となると、ホモジニアスかヘテロジニアスかという点が論点なわけだろうか。
そのうちIntelはCPUにSIMD拡張かXeon-Phi統合か知らんが一体化して、 NVIDIAはGPUにARMのCPU載せて単独で動くようにして、 この両者で争う時代が来るのかなあ AMDは消滅か…
Phiはコプロセッサあるいはアクセラレータではあっても「GPU」じゃないでしょ。 「Linuxが動く汎用のx86マシン」であってプログラミングスタイルもCPUそのもの。 そもそもGPUがPhiのコアのような「ベクトルユニットを備えた汎用スカラプロセッサ」 であれば、ここまで不自由なプログラミングスタイルを強制されずにすんだわけで。 ま、それだとGPU本来の用途には不向きになるんだろうから仕方ないね。
xeon phiはgpgpuの一部に侵食したけど、完全に置き換えることはないんじゃね 一部のワークロードだけ当てはめてgpuはunkoとか説得力ないぞ AMDのARMメニーコアだって、もしかしたらワンチャンあるかもしれないし
メインメモリをGDDR5にして、メインメモリ帯域を300GB/secクラスに上げて、 Xeon PhiのコアをCPUダイに乗せるか、 既存のCPUコアにあるAVXを、300GB/secの帯域を満たせるくらい高速化すればいいよ それかメインメモリを8ch DDR4にして、ハイエンドGPU並みのメモリ帯域確保するか
↑だからKnights Landing世代のソケット版Phiでいいじゃん Hadoopみたいな分散処理フレームワークを動かす分には 帯域に見合うだけの演算ユニット数にとどめておけば 無駄はなくてすむよ。 MapReduceのCUDA用実装は数年放置されてるけど ああいうのはディスクリートGPUに向かない例なんだろうな。 AMD「CPUと物理距離が近いから勝つる!」
AMDは、HSAによるCPU⇔GPUのゼロコピーがどんだけ有難いか分かるデモを出してほしいなぁ。
PC用のAPUはメモリがね… ゲーム機用のがどれくらいいけるのか興味深い
ああ、メモリがキツいか・・・。 Stacked Memory Cubeが早く実用化してほしいなぁ。 そうでなくとも、キャッシュに収まるくらいの少データなら爆速化しないかな? 純粋にゼロコピーの効果を見てみたい。
>>444 普通のカメラ処理はセンサーとISPで終わり
当然tegra4及び他のSoCでもISPは付いている
問題なのはHDR撮影を行う場合で
普通は写真を露出の高いものと低いものを撮影し合成して最終イメージを作る
写真家だとこれをフォトショップでやるらしいが、
スマホやらのカメラアプリではCPUを使ったソフト処理を行うため時間がかかる
複数枚撮影するためソフトによっては動きのあるものを撮影すると像がぶれたものになって使いものにならない
(一枚目の撮影を使用し後の撮影で露出を修正するモノがる3枚撮影するけどね)
tegra4のchimeraではこれをOpenGL ESを使ったGPUとCPUの組み合わせで高速に処理することを可能とし
常時HDR撮影が可能となっている
使ってみればわかるけど、一般的なHDRアプリで2-5秒かかるけど(ニコンのS800cっていうandroidカメラはCPUがショボイのではもっとかかる)
chimera使うと一瞬なのでトータルで電力は減ってるよね
(GPUが2WってことでCPU 3Wで2秒で6W、CPU+GPUの5Wで0.1秒として0.5Wってな感じで)
tegranoteのカメラアプリで撮影
http://i.imgur.com/cD7cAOs.jpg http://i.imgur.com/icNWa7x.jpg http://i.imgur.com/4emSmro.jpg http://i.imgur.com/nMOmjML.jpg
ソケット式のCPUではピン不足でメモリ帯域に限界がある CPUもメモリもマザーボードに直付けでGDDR5メモリ使うか、 それかCPUはマザーボードに直付け、メモリはDIMMスロットで差し込む 8ch DDR4とかにしないと
次のxeon phiはソケット式になるが、ソケット式の帯域不足を補うために広帯域メモリをMCMで搭載するという話
300GB/sのが16GBらしいぞ
キャッシュ階層数に理論限界はないのかな? 階層増すごとにサイズは大きくなって速度は遅くなるんだから、費用対効果は加速度的に悪くなっていきそうだけど。
476 :
Socket774 :2014/01/10(金) 13:04:15.96 ID:VFjl42cf
>>470 アドビのフォトショップならCpu OpenGL Gpgpuの連携が活かせそうだからHSA対応したら面白そうだな
ついでにマントル対応したら色々早くなるね
8x15=120コアが可能なIvy Bridge-EXはコストが高すぎるとしても、 Ivy Bridge-EPでも4x12=48コアまでノード間通信を明示しなくていい。 ソケットあたりのコア数が増えたから、Xeon Phi 61コアのような プロセッサと大きく違うわけではなくなっている。 Intel最大の敵はIntelというパターンと言えなくもない
そこはレイテンシ最適化型とスループット最適化で最適なチップを選べばいい。 Xeon E3とAtom C2000(Avoton)も省電力サーバ市場で競合してるし いい意味でいえば選択肢が増えている。
>>468 HSAなんかなくても既に実際にメモリ統合したものが売られてるじゃん
PS4もそうだし、Iris Proもそうだし
そろそろメモリを内蔵するかなw
そういや淫рェメモリ作り出したな
日本もさっさとメモリ再参入しろっての。
>>483 ファブ捨てた、捨てたがってるベンダにそりゃ幾らなんでも無理な相談をw
もっと金融緩和して1ドル200円にすればいいのさ。
>>476 HSAにMantleに・・・AMDはイイタマ持ってる。
がんばってほっすぃ。
>>480 いや、HSA以外はGPUとCPUのメモリ空間を別で管理してる。
HSAはGPUもCPUも同じデータに同じポインタでアクセスできる。
GPU用、CPU用の区別なしだ。
HSAもMantleもハードル上げすぎだろ。
>>486 とりあえずメモリ統合すりゃゼロコピーなんじゃないの
HSAに対応しないと同じメモリの中でCPU用GPU用2つデータが必要ってこと?
もしそうならメモリ統合のメリットって「物理的に近い」だけなのかな
>>488 そうなんだ。
今のところ、
・PCIeの先ではなくCPUダイのインターコネクトに繋がっている
・GPU用のDRAMチップが別ではなく同じものを共有している
くらいだけで、わざわざGPUの領域とCPUの領域をコピーしながら共有しているという動きは変わらない。
一気にすべてを変えるのはリクスが高いか、開発リソースが足りないかで、
少しずつ変えていってるようだね。
PS4やXBOX Oneがゲーム機のメインになると VRAMが要求される容量が大きくなるから VRAMとメインメモリを統合しないと ゲームするときだけVRAMに割り当てるメモリを多くする必要が出てくるし 32bitのゲームだとメインメモリ容量を圧迫するから APUでVRAMとメインメモリの統合は必須条件になってくるよね Battlefield 4なんて推奨のVRAM容量が3GBだもんな
メモリ容量・帯域を巡ってまさにBattlefield
APUでBattlefield? ないない。
BF2の最高画質の間違いだろ?
マントルで45%向上って話だな 話半分としても二割向上…… ギリギリ遊べるかどうかって場合にはけっこう効きそうだな まるでダメな場合とか、一応遊べるけど向上させたいとかだと意味ない感じだが
ハイエンドGPUのプロセスもアーキテクチャも似通ってしまう以上、 その他で2割以上の差を付けられるというのは驚異的だ。
PPC 64bitは本当に汎用レジスタ幅の拡張だけだから 通常用途では速くなる要素がない
そりゃあx86は8個という極端に少ない状況だったから16個に増えたらコードも短くなるだろう PPCは32ビットの時から32個あったし、PPCは64ビットバイナリは実際動作が遅くなった。 RISCはキャッシュリロードイベントを減らすのが高速化の定石だし、メモリアドレスが4バイトから8バイトに増えたらそれだけでキャッシュのプレッシャーが上がって性能が落ちる
HSAなんてまだ始まってすらないし
CPUとGPUで同一のメモリ空間、同じデータに同じポインタでアクセスという事は、 CPUの要求する低レイテンシと、GPUの要求する高転送速度の両方を 兼ね備えたメモリ(HMC等)が出てくれば、逆に「完全にCPUのコアの一部」 としてdGPUクラスのユニットを備えたCPUチップが出てくるという事は無いのかな? (TDPが200Wとかのチップになってしまうかね?)
メモリ空間共有するってことはコヒーレンシどうするんだろうね。
それならGPU側にCPUコアを統合したほうがよさそうな気がする
CPUのパイプラインにGPUみたいなユニットを取り込むというのはIntelの論文か何かで出てたと思う
ARMの64bit化は原理的に6倍程度に速くなるはずなんだが 何かがおかしい
それはなんという原理ですか?
x86:32bit AVX:256bit =8倍速
ゆで(たまご)理論
ARM厨の頭は何かがおかしい。
x86はSPがスタックポインタなので実質7本のレジスタ ARMはR13がスタックポインタ、R14がリンクレジスタ R15がプログラムカウンタなので実質R0からR12の13本 これが64bit化で31本になる 128bitのメディアレジスタも16本が32本になる ARMもx86のように64bitで速くなるのかな?
本来のx86は8本だけど、PentiumProの時点で内部レジスタが40本になってて、 レジスタリネーミング機能で自動再配置されるって聞いたけど?
内部はそれこそ好きに変更できるんじゃないの? PentiumProからわざわざ引きずる必要ないような気がするんだが
>この状況を受けて、Futuremarkでは64bit版の >3DMarkを作成し検証したところ、性能は向上したが、 >その割合は7%に留まり、 >64bit化が物理テストの結果には >大きな影響を与えないことが分かった。 x86と同じように数パーセント速くなるんだな
メモリ空間共有はXEONとKnights Landingの2ソケで メモリが遅いのが悩みどころ
プログラマから見えるプログラミングモデル的には ・x86 EAX/EBX/ECX/EDX/ESI/EDI/ESP/EBP/XMM0〜7 ・x64 RAX〜RBP+R8〜R15/XMM0〜15 レジスタリネームはPentiumMから実装していたような気がする。 x86は基本設計が古すぎて、コンパイラ作成者が楽できるように レジスタごとに用途が決められていた・・・・んだけど、そんなこと 守ってたら高速にならないので近代のコンパイラはある程度その ルールを無視している。
レジスタ名が用途ごとに違ってるとアセンブラでコード見た時にわかりやすい たとえば、汎用レジスタが16個あるアーキテクチャがあったとして、 16個のレジスタの名前に連番が振ってあるだけだと、 コードをパッと見ても何のレジスタかわからずに解析が面倒になる ところが、16個の汎用レジスタがあったとして、 最初の8個には、用途ごとに違う名前をつけて、あとの8個の名前を連番で振るようにすると、 アセンブラで見た時に、ある程度レジスタの用途がわかって理解しやすい
SPやPCやFLAGに連番ふられてもなぁ。誰得やねん。
RISCでもゼロレジスタに連番振ったりするから、業界慣習でしょう。
>>517 そこでパッケージ混載ですよ
効果さえ大きいならKNLの16GBのNear Memoryを普通のXeonにも
載せてしまう手もあるんじゃね?
QPIで4ソケット分足せば64GB。
データベースの巨大テーブルの操作とかすげー役立ちそう。
本当の汎用レジスタだけ連番を振ってしまうと用途別のレジスタ操作に別の Opcodeを割り振らないといけなくなる。 x86の*BPをレジスタオペランドに割り振る設計は正しかったと思うよ。
レジスタ名や命令名なんてニーモニックだけの話じゃないのか。 OPコードと1対1に対応する必要すらない。
x86にはopcodeで使うレジスタが固定される命令がいくつもあるから...という話でないの
LOOPとかREP MOVSなんかはECXがカウンタで固定。 リピート系命令は遅いんで、今時のCPUだと内部命令に 変換する家庭で高速な別オペレーションに変換されると 思うけどね。
将来MRAMが実用化すれば、 DRAMよりはやいSRAMに近い高速メモリを DRAMより高いビット密度で詰め込めそう
そういや超高速コンピュータが作れるとか言われたジョセフソン素子って今何やってんの
軍用レーダーの超ローノイズADCなど特殊用途に使われている
ジョセフソンは-200度ぐらいまで冷やすというのがネックでな。
>>531 >フルアセンブラで組むのが正しい,ということになる
どこをどう解釈したらそんなトンチキな結論が出てくるのかkwsk
512KBあればDOS相当なんだからいくらでもC/C++で書けますよ。ライブラリに制約は生じるけれども。データ構造のメモリ最適化を施すことを考えれば、フルアセンブラはむしろ回避すべきでしょう。
512KBのLPDDR2チップなんてあるのか こんな小容量ならオンチップSRAMにすればいいのに
11日に一般販売が開始されたGalileoは512KBのSRAMがチップに内蔵されてるようですね 命令セットはPentium互換とのことですが実性能は如何程のものなんですか?
μitronとかそのての組み込みOS用なら動くでしょ てかx86だからといって今更DOSを動かすのはアホ過ぎる まあここまでワークメモリが少ないとTCP/IP周りの実装するだけで悲鳴を上げそうだが
ガリウム砒素半導体なんかも次世代だの何だのといいつつコンピュータにこないよな シリコンが限界にぶち当たってからかな?
ちょっと常温超伝導を発表してくるw
>>536 ワークメモリ自体は外付けのDRAMだよ
内蔵SRAM 512KB分(4K x128ページ or 512K x1ページ)をメモリ空間の特定のページに割り振れるというだけ
ガリウムヒ素って化合物じゃない。 ここまで微細化が進むと、化合物って不利じゃないの?
ガリウムヒ素は高周波用半導体とかに使われてるが、 通常のロジックの汎用品には使われてないな
毒性が心配
GaAsはRF回路に使うものでロジック回路には使えないよ。
538の言う次世代ってのはIII-V族チャネルのことでないの
BSアンテナとか、12GHzとかの電波が来てるから、 シリコンじゃない半導体が使われてるよ 12GHzで受けた電波をBSアンテナで1-2GHzに変換してる
ガリ砒素を持ち出す人がまだいるとは驚き 大昔に次世代の本命といわれつつ日の目を見なかったのは n型の移動度はSiの6.5倍ほどあるものの、p型は0.85倍しかないため Si-CMOSが全盛になってから俎上に上らなくなったのは このアンバランス故、ポストSiの呼び声が高かったのはSiが 片チャネルの動作だった時代で、CMOS全盛の今、同じIII-V族で GaAsを推す人はいない
GaAsは高周波用途でもGaNに浸食されてきてるね
GaNは高周波大電力半導体に向いてる 大電力不要ならGaNの必要はないな
なんかLEDなんかも含めて水銀条約に巻き込まれそうだけど>Ga系
ヨーロッパはなにがしたいのかよくわからんね リスクがほとんど無いものをあれは駄目これは駄目とか規制して、 高リスクなものを野放しにしたりしてるし まあ低リスクでもマスコミが騒いだら規制して高リスクでもマスコミが騒がなければ規制しない 日本みたいな国もあるけどね
日本も脱法ハーブ野放しにして大麻規制したりしてるし そういうのはありがち
脱法ハーブもどんどん規制していってるぞ間に合ってないだけで そもそも存在が知られてないものを規制するわけにもいかないので、最近は成分とかで規制しようとかいう話も聞いたような
水銀は工業製品規制しても石炭の発電所がざるでは意味ないという 話があるようだな。発電所がざるじゃないのは一部の先進国だけ
火山活動で勝手に出てきたりするしな
ダニュー特戦隊
>>555 海底からの噴出分を考えるとさらに意味はなくなるな。
まぁそれはともかく
粉体流動床タービン型高効率火力で粉体加工時に水銀やその他汚染物質を抜くのがキモ
家庭用石炭ストーブ向けに石炭の現物支給とかやってる国とかある訳でな…
日本の火力発電所は重金属等も外部に出ないようになってるよ 排気からPC・NOx・SOxを取る過程でついでに取ってしまうから
いよいよGoogleセンセ謹製プロセサが登場するのか とことんAppleと張り合うつもりだな
Googleの特許検索でNVIDIAが出願したの拾ってきただけだろ
564 :
Socket774 :2014/01/16(木) 20:23:43.50 ID:xMxOBXP0
前スレに店舗のPOSレジがWindowsで動いているという話があったけど、 米国の家電量販店Target店頭のWindows POSレジからクレジットカードの磁気情報と暗証番号が何千万件も流出した事案で流れが変わるかな
> Method and system for ... は on-demand.gputechconf.com/gtc-express/2012/presentations/gpu-object-linking.pdf と同じ内容に見えるが…書いてる人も同じだし。 翻訳すると…obj中に埋まってるデバイスコードをリンクする、みたいな話。まあ多分CPUアーキテクチャとは関係ない。
Instruction-optimizing processor with branch-count table in hardware CPUまたわGPU脇にトランスレータついてて 非ネイティブがきたらHW decoder回避してトランスレータにまわす 非ネイティブ命令に対応する最適化されたネイティブ命令は、 また使うために命令キャッシュに格納される トランスレータから実行ユニットにまわす
モダンハードで複数クライアントサポートできないゲーム配信に何の旨味も感じない
同じ技術で作ったら専用回路のほうが性能いいからな
汎用CPU に専用アクセラレータを繋げるようにする構想なんてどうだい? まあ、Torrenzaっていうんだけどね。
昔はopteronのソケットにささるFPGAあったんだけどな AMDからもすっかり消えたなtorrenza
CPU+FPGAはインテルが始めるんだっけか
>561
Instruction-optimizing processor with branch-count table in hardware
https://www.google.com/patents/US20130311752 の特許関係者の前歴
Ben Hertzberg - intel
Madhu Swarna - intel
Ross Segelken - intel
Rupert Brauch - ?Hewlett-Packard
David Dunn - transmeta
denverのtranslationが面白そうだ
JITCをハードで取り込んだような・・?
ネイティブは何なんだよdevner
「内部CISC」かもしれんね
何を言うてはりますの
久々に超面白アーキ来たんじゃね?
面白いアイデアがまず特許にのることはない
インテル終わったか GPU屋の方が革新的なCPUつくるとはお笑い草だなw
582 :
age :2014/01/18(土) 18:41:26.34 ID:73dD24dm
コードモーフィングなのかSMTなのかだけで良いから情報を頼む
ソフトウェア側からの歩み寄りは必須かもしれない それこそ人類の言語体系をCPUが直接理解可能なものに変えるべき時が来た
正月ボケ長すぎんよー
分岐先とカウントの検出をハードでやる動的バイナリ変換だな 詳細が特許になっただけで、あまりおもしろい話ではない
後にある インバーター(NOP回路) もなかなか
というかそのNMOSインバータの入力に付いてるプルダウン抵抗は何なんだw そんなもん付けたらただでさえratioed logicなのにフルスイングから更に遠くなるわw
絶句 きっと、あれだ! 編集の最後でレイアウトが崩れたんだよ! と、無理やり擁護してみる……ないな
しかしコレはコレで味があるかもしれんw Bodyにドレイン電流が流れるとか、斬新じゃね?
文系記者なんてこんなものですよ。
記事の冒頭に >先端プロセスの話も後々出てくるが、その前に少し基本的なことのおさらいをしておきたい。 とか書いてあるけど、MOSFETの構造すら分かってない人がどうやって先端プロセスの話をするの... マイクロアーキテクチャ関係の記事も頓珍漢なものばかりだしこの人元々何やってたのと思い経歴を見てみたら ソフトウェア屋さんだったっぽい?
平均的な自作板の住人よりはコンピュータ寄りの経歴だと思う けど昔仕入れたまま色あせてうろ覚えになった知識を確認せず書いちゃうタイプ
>>589 バイポーラとかBiCMOSの説明もなんじゃこりゃ的な…
大原氏はインタフェース関係の人だったような PCI-EとかUSBの記事があった気がする
今回だけじゃないと思うが、何度繰り返しても原稿依頼がなくならないんだな。 どういう仕組みになっているのだろうか
コネクション
だってお前ら偉そうなこと言ってても原稿は書けないじゃん…… MOSFETの図は書けるかもしれないが(それすら怪しい?)
隙だらけの原稿でいいなら書けるやつは多いだろう。
元ハードウェア開発者のテクニカルライターというと安藤壽茂氏がいるね
リチウムイオン電池の価格が高いですよね。現在の相場は、1kWhあたりおよそ5万円。
大原は無駄にベンチマークテストのグラフを並べてページ数を稼ぐのを止めろ。 中身の無いことこの上無い。
RMMAとかは他のライターは使わないから、 貴重なデータな気がするけど
て
>>599 お、ソフト屋さんだったか。
黒歴史シリーズはマジおもしろかった。
書籍になってるんだな。
買おう。
大原たんの言葉を借りれば「雲の上の人」だからな ホントの専門家だし
SPARCの開発に従事してたらしいが、アーキテクト級だったんだろうか? だとしたら、どえらいライターだw
技師長だよ
クビになりそうなレベルとも思えないし、定年退職でライターとかかな?
dos/v時代やそれ以前からPC系ライターしてる連中はみな老人になってしもた。 彼らの後を継ぐような若い人は皆無だけど、もう旧来のPC業界はトレンドリーダーでも何でもないから問題ないか。
このスレも昔から加齢臭が凄いけどね
安藤さんは年金生活者だよ
PCサーバも儲からない時代になったということか
PCもサーバも、基幹パーツ+汎用パーツ+部品制作+組立 ってなってるからね 基幹パーツ作ってる会社(CPU・GPU・メモリ・HDD・OS)以外は、 激しい価格競争にさらされて、先進国のメーカーでは採算が合わなくなってきた
あずにゃんホモホモ
で、今度は何を割高にして売るの?>IBM
627 :
Socket774 :2014/01/29(水) 14:06:42.76 ID:v1JlR/Le
とりあえずARM版Linux入れて、最新ATOM採用の似たような機種と ベンチマーク取ってほしいな
>>626 Freedom Fabricってどういう技術なんだろう。元はSeaMicroの
インターコネクト技術で速度や遅延の割にコストがかからないみたいだが
Opteron A11xx Atom C2750 Cores 8 8 Freq(GHz) 2.0 2.4 L2 Cache 4MB 4MB L3 Cache 8MB - PCIe 3.0 x8 2.0 x16 SATA SATA3 x8 6Gb x2, 3Gb x4 Ethernet 10GbE x2 GbE x4 TDP 25W 20W
ここは那珂ちゃんらしく解体の方向で
633 :
Socket774 :2014/01/29(水) 20:48:05.24 ID:v1JlR/Le
カーンカーンカーン
2-4-11
>>630 22nmのアドバンテージを生かせてないな
こらAMDにやられるわ
何をもってそう思った?
Avoton/Rangeleyのダイサイズは100mm^2程度に過ぎませんが。
それこそスケーラビリティで競うならSilvermontベースのコアを72コア搭載した
Knights Landingが控えてるわけですし。
(ARMv8Aをして1ノード最大16コアまでしかサポートできないARMにはそもそも不可能な構成)
そーいやSupermicroが6Uで112ノードのサーバ出してたね。
この時点でSM15000の3倍以上のコア集積度。
http://www.supermicro.com/newsroom/pressreleases/2013/press130904_avoton.cfm TDP25W枠であれば4コア8スレッド・L3 8MBのXeon E3-1230Lv3があるよ
ものによってはこっちのほうがAvotonより電力効率が優れてるアプリケーションも
あるようだし。
feedam fabricはどうなったんだ。 まぁ思ったより早かったな。ddr4対応はよく頑張ったほうじゃないか。
メモリを128GBまでサポートしてるのは用途的に良いかもしれんね>Seattle やはりコアの性能に比べると足回りがごつい感じ
IntelってSandyのPCHを未だに使い回してるのな そろそろ全面リニューアルすればいいのに Intelのチップセットって何かしら初期不良起こしてるイメージ コアと比べるとショボイ
SandyのPCHでUSB3.0対応、SATA3.0x6ポート、32nm製造のものがあるなら挙げてみな
>>637 ないけど、10GbE/40GbEならIntel FM5224で対応してるようだよ
「発表」とはいっても具体的な品番を含めたスペックがまだ
出てきてないし、発表と同時に各社から採用製品が発表された
Avotonと比べるとまだ買い手がついてない感じがする。
コア単体の性能はSilvermontに及ばないんじゃないかしら
2.4-2.6GHz動作のC2760に対してSeattleは最大2GHz
ARMサーバが一気に下火になったのは、最新ATOMの性能(ワッパ・絶対性能)が良すぎたのと、 Intel自体が自社CPUコア使ったSoC製造に乗り気なのがあるんでしょう 本気でARMサーバ検討してた企業も、いまやIntelと好条件で取引するために ARM持ち出してるんじゃないかって気がするよ
コア性能を競う伝統的な戦いでなく、ユーザー企業側に都合よくチップ(のアンコア部)をカスタムできるかという戦いに移ってると思うけど。
Anandは製品登場はQ4とか書いてるし対Intelで見るならAvotonよりDenvertonが出てくるんじゃね
AvotonよりVIAの終了感にトドメだな Bobcatが広く受け入れられた時点で終ってたけど
>>645 VIAは別にマイクロサーバ市場で存在感を持ったことなんてないぜ
主力の産業用組み込み用という意味では45nm Atomが出た時点で終わってた。
Opteron A1100はSeaMicroのFreedom Fabricに特化したSoCではあるね。
Avotonでは10GbEをサポートするのにコンパニオンチップが必要だから。
何でこんなにゴタゴタしてるんだ……
すまん誤爆
プレーンなA57でこれくらいの性能出るなら こねくり回してるDenverとかってちょっと面白そうだな
ピコFlopsと思ったらペタか。
ピコならピコで興味深いけどなw いったい何のためにどうやって実現してるのかってw
足し算するのになんおくまんねんかかりますか
昔の機械式計算機って何Flopsなのかなぁ・・・w
あれは整数演算機だろ。
機械式計算機って浮動小数点演算出来るの?
ケコーン
ん?浮動小数点も結局は整数演算の組み合わせでできてるんじゃないの??
どこまでを機械式というのか知らんが、手回し計算機だと小数点は自分で動かしてなかったか いわゆるコンピュータの機械式のは知らん。
昔は歯車式計算機でミサイル飛ばしてたんだぞ。 信じられるか?w
>>662 んなこーたない
悪くてもリレー式計算機だろ
ENIACだって出てたし
戦車とかに載ってる弾道計算機は70年代ぐらいまでアナログだったような
>>663 いんや、V2は歯車だよ。
http://www.benedict.co.jp/Smalltalk/talk-43.htm >一方、精巧なセンサーやコンピュータがない時代に、こんな精緻な制御をどうやって実現したのか?
>ロケットの姿勢制御は、ジャイロで機体の傾きを検出し、定めた進路とのズレを比較し、
>噴射舵と方向舵で姿勢を修正した。
>また、加速度制御は前述した振り子ジャイロと歯車計算機で行われた。
>電子制御もコンピュータもない時代に、機械式制御だけで300kmも飛行したのである。
>安易な電子制御に慣れた現代の技術者からみれば驚異である。
アナログコンピュータと機械式計算機は別物だからね
>>665 V2はロケットじゃん、ミサイルじゃないよ
ロケットミサイルは厳密に区別があるわけじゃないが、
通常ロケットはそこの解説にあるように弾道飛行する物体
一方ミサイルは巡航ミサイルのように一定の高度を飛び続けたり、
対空ミサイルのように相手に向かって飛んだり、弾道飛行しない物体
精度もあてにならないんだから発射角なんて適当でOKと 当時現場にいたら思うはず。
>>667 ごめん、ごめんw
弾道ミサイルの意だったんだ。
>>669 おう
まあ本題の歯車計算機で慣性誘導してるのはかなり凄いけどね
>667みたいな定義は初耳だが適当な事言ってないか?
ロケットはエンジンのことで ミサイルは誘導飛翔体のことだと思ってた
ざっくり誘導(=自律的に向きを変える)手段があるかどうかで区別されることも多いが、非常に曖昧な言葉でもある そもそも日本語で「ロケット」と言うとき、ロケット弾のことを指すこともあれば 衛星の打ち上げに使うロケットを指すこともある ロケットモーターという言葉があるように、システム全体ではなくて推進手段を指すこともある かといってロケット弾であれば無誘導かというと、 最近の兵器はロケット弾を誘導化した微妙なものがどんどん出てきて厳格な分類とは言えない 国が違うともっとひどくて、ロシア語だと区別がないらしく ロシア戦略ロケット軍は伝統的にロケットと訳されるが取り扱うのは弾道ミサイルで 英訳ではrocketもmissileも両方あり
ロケットとミサイル区別しだしたのはアメリカらしいので、 ロシアは区別無いんだろうねえ
当時手に入るものだけで当時動作していたものを再現する、 現代人の手に負えないものは増えつつあるだろうな。 天文時計なんかも難易度高い
日本語だと誘導弾はミサイル、それ以外はロケット、ただしV2だけは例外でロケット。
俺も
>>667 みたいな話は見たことも聞いたこともないな
大陸間弾道弾、いわゆるICBMのMってミサイルのMだぜw
ICBMといえばTRON今どうなってんだ?
ミサイル≒飛翔体 ロケット≒ガスの反動を使う推進方式 両方とも非常に守備範囲の広い単語です
>>673 が書いてるように誘導があるとミサイル、無いとロケットの例が多いな
今のICBMは天測誘導とか付いてるし
V2ロケットは慣性誘導のみだからロケット扱いなのかな
詳細は言えないが、全ての技術が実現されれば、単にFLOPS/Linpack向上と言った昭和的メトリックから脱皮した、 IDC/ビッグデータにも革新的な進歩をもたらす、真の意味での「世界一」のスパコンとなるであろう tubame3.0について松岡さんがこういってるけど 2.5までのGPUとはちょっと違うってことかな IDC/ビッグデータにもってことはmany core? phiやKNLならmany coreだが松岡さんはnvidiaオシだからなぁ maxwell世代で大きな変化があるのかね
>680 何の記事?と思ってぐぐったらtwitterか。 いつごろその概要が公開されるのかな? 楽しみ。
裏返して言えばLinpackは苦手ってことだろ まあ、違う使い方するなら別に苦手でもかまわないんだが
LINPACK万歳はむしろ平成で、昭和はバンド幅やレイテンシ命の ベクトルスパコンの治世じゃなかろうか。 20年間あまりの歴代top500筆頭も 数値風洞と地球シミュレータ以外はみんな前者だし
新しいとも古いともいえないのでは コモディティなプロセッサが1チップに8MBやそれ以上の容量の 内蔵キャッシュ積むことなんて昭和期にはありえなかった話で。 キャッシュにすっぽり収まる部分行列が大きくなったことで、足回りの メモリ帯域やノード間通信のボトルネックが相対的に小さくなった。 そのことでLINPACKが得意なシステムとそれ以外のたとえば 流体演算が得意なシステムの差異が大きくなったのでは。
結論が飛躍しててよくわからん x86といえどもサーバはコモディティとは言えない価格がついている
とはいえ、儲かってるなら手放さないだろうし、あんまりおいしくないんだろうあの値段で
IBMの場合高価格鯖はPowerがあるからx86は安鯖だけなんだろう。
売却先はGFかサムスンの二択ですな
GF/サムスン/IBMで合弁作ればと思ったが、それではコモンプラットフォーム と同じで、それが失敗しているからこんな事になっているのだろうし…
いつものようにHPが買えばいいんじゃね?
RASなどフルサポートするPOWERサーバーと比較すれば x86サーバーは安物かもしれないが、それでもIBMのx86サーバーだけで top500 で1/4を超えるシェアを獲ってるような事業だ。Crayですら35/500。 もしも日本の電機メーカーなら手放すことはまずないだろうな
今は大丈夫でも数年後には確実に死ぬと予想しているのだろう
HDDもPCもサーバーも半導体も、利益出て売れるうちに見切るってのは さすがIBMとは思うけど、売り切った先にネタどんだけ残ってるんだろうか
今のところ何が残ってるんだろうか powerのIP?
焼畑農法だよ 森を焼くんじゃなくて畑を焼くタイプの で周辺農家の畑も延焼させて資本力をバックに自家の新しい芽で新たに占過を模索
PCサーバめちゃくちゃ安くて速いからな。 ハードは儲からんからシステム開発だけに注力するんだろう。
ソニーはVAIO事業をあそにおるとしちゃいましたし
33 名前:Socket774[sage] 投稿日:2014/02/07(金) 14:26:08.47 ID:+ysyAdDN
LINPACKは過去のものに
新たなベンチマークHPCG
http://news.mynavi.jp/column/sc13/010/ つまり、LINPACKが解いている問題と現実の問題とは性質が異なり、LINPACK性能が高いことが実アプリの実行性能が
高いことにあまり繋がらなくなってしまっている。
そうなると、高いLINPACK性能を達成してTop500の1位を取ろうという努力は、実用的には意味の無い努力で、
Top500の存在はスパコンの発展にプラスになるどころか、間違った方向にスパコンの開発を引きずってしまう
マイナス要因になってしまう。
このような懸念から、テネシー大のJack Dongarra教授らはHPCG(High Performance Conjugate Gradient)という
ベンチマークプログラムを開発している。
なお、Jack Dongarra教授は、Top500の主催者の1人で、HPLを開発し人物である。
http://news.mynavi.jp/photo/column/sc13/010/images/008l.jpg この図に示すように、32ノードのシステムのピーク演算性能は5000GFlops弱で、HPLでは4000GFlops強とピークの
80%以上の性能が出ているが、HPCGの場合は、0.5%程度の性能しか出ていない。つまり、HPCGでは演算時間よりも、
飛び飛びのメモリアクセスやノード間のMPI通信の時間が性能に大きく影響している。
このため、HPLで性能が高いシステムがHPCGでも性能が高いとは限らない。
また、HPCGで高性能を出すための技術の開発も必要となる。
>>703 80年代のスパコン、数値風洞、地球シミュレータなどは
疎なデータの共役勾配法も当時としては速かった。
別に新しいわけではなく回帰だな
ベンチマークの方法が変わったからって科学者・技術者が求めてるコンピュータの 性能が変わるわけじゃないんですけどね 足回りが強いコンピュータがランキング上位になることで、そういうコンピュータを 求めてる分野で予算がとおりやすくなるというだけで。
>>706 その時代の可能な最大並列数と、そこでうまく性能を出せる科学計算というのは変わりゆくもので、そういう意味では求める計算は変わっている。
まあ、変わるというか、うまく当てはまる計算が、その時代ごとにで選ばれていってるってことだ。生存淘汰に近い。
長距離転送は電力効率も費用対効果も悪いのも事実なわけで その意味でいまの「Linpack番長」みたいな構成が間違ってるわけでもないんだよね 遠いノードの演算結果をわざわざとってくるより自分のところのノードで 計算したほうが速いなんてケースはよくある話で。
709 :
Socket774 :2014/02/07(金) 22:18:04.61 ID:5UzTzY1x
そもそも、1つのベンチマークでスパコンの性能を示すってのが、 スパコン非利用者・専門外の人・マスコミにわかりやすいだけで、 スパコンの現場にいる人なら、HPCCみたいな複数種類のベンチマークを示してもらって、 うちはこの計算を重視するからこのベンチが速い奴、うちは別の計算重視だから別のベンチが速い奴、 みたいなのがいちばんいい
全ノード専有するようなベンチを複数回走らせるのは物理的に難しいからねえ
ふつうはスパコンって導入する前に計算目的ははっきりしてるからな。 日本の公共事業スパコン以外はw
712 :
Socket774 :2014/02/07(金) 22:31:20.16 ID:5UzTzY1x
日本以外でもTOP500にのってるスパコンは全部公共事業じゃん 企業もスパコン導入してたりするけど、外部にベンチは出さない 重電・重工・自動車・航空宇宙の大手とか、全部自社スパコン持ってるでしょ?
>TOP500にのってるスパコンは全部公共事業じゃん キミの口は曲がってるのではないか。
企業の普通のデータセンターのPCサーバすら下位に入ってる
旧帝みたいな総合大学の全学(+全国共同利用)をサービス対象として 導入する場合はひとつの用途における性能をひいきするわけには行かず 選択に苦慮してたがな。 その結果、予算全部つぎ込むのではなく違う傾向のシステムに 分割して複数稼動させる傾向になり、小粒のシステムの導入が増え 大規模システムの導入は減ってしまった
ふた昔以上? 前は主要大学の主システムが 大きな計算ができる国内で主要なシステムだったから 京みたいなセンターは必要なかった。 卵が先か鶏が先かわからんが、主要大学のシステムが今のように 小粒だと、有無を言わさぬ規模のセンターもないと困る気はするな
>主要大学のシステムが今のように小粒 主要大学が軒並み法人化して金欠病に陥っているからね。 昔みたいに必要性を理解してもらえたら導入できる時代ではないから。
浮動小数点演算って、演算する順番が変わると、数学的には同じはずでも、コンピュータでは変わってくるじゃない。 でも、もしその順番を気にしなくてもイイようなアプリケーションの場合、 それをプログラマが指定してやれば、CPUはその制約に縛られずにOoOの幅を広げられ、 結果、演算器の稼働率を上げれるんではなかろうか?
すごい!天才! でもそれSIMDっていうんだぜ
ん?gccの-ffast-mathのような話じゃなくて?
721 :
Socket774 :2014/02/08(土) 14:31:53.84 ID:fAEPs0Hp
floatやdoubleで、下位1〜2bitの計算結果が変わろうと ほとんどの場合別に問題ないだろうね
1+1e100-1e100みたいなのだよ。 正解は1 前から計算すると0 後から計算すると1
723 :
718 :2014/02/08(土) 15:12:36.33 ID:SdgTGw9B
>>720 うわ、もうあるんだw
VC++でそういう設定ない?
ひょっとして/fp:fastかな??
解法アルゴリズムを考える人間が桁落ちに配慮するのは初歩だと思う。 まともな浮動小数点数ライブラリは桁落ちの効果を含む動作保証 入力範囲が出力の誤差とともに明記される。
畑中葉子のようにはいかないわけだな
アーキテクチャ? サムチョンがパクるよw
アメリカとしては、インテルがあるからいいということになるんだろうか。散々国費を注ぎ込んできたけど、市場の流れにはあがらえない、しょうがないってことか。 ライバル的な富士通の立場がどうなっていくかも、要注目だな。まさかとは思うけど、富士通が吸収、いやないな。
任天堂どうするんだろ?
>>729 ソニーにルネサス買われるは、踏んだりけったりだな。
IBMの半導体売却は他にもいろいろ影響がありそうで気になる。半導体と共同してた研究部門なんかは、相当煽りを喰らいそうな。NVIDIAのGPUとつなぐ話もどうなるかな。NVIDIAが買収を引き受けるとも思えないし。
普通に中国系が買いそう
>>730 ルネサスはGPUの製造でしょ
Wii UのCPUはPOWERだから
IBMの半導体部門売却だと影響が出るという話じゃないの?
>>731 米軍が黙ってないだろ
IBMの技術は世界最先端技術だぞ
734 :
Socket774 :2014/02/09(日) 08:20:32.12 ID:rfvYGTKP
任天堂は、当面はいままで通りルネサス・IBMに発注して、 そこからソニーなりGFに製造委託して納品するだけでしょ?
その仕様のLSIを作れる(引き受けてくれる)のが ルネサスしかないというのが問題なのでは?
736 :
Socket774 :2014/02/09(日) 10:32:35.59 ID:rfvYGTKP
任天堂はGPUのeDRAMを、20nmプロセスくらいになれば、 eDRAMからeSRAM化して、TSMCあたりで製造すればいいんじゃね? 互換性のために、eSRAMのタイミングをeDRAMと完全に一致するようにするとかの対策をして
というか、もともと任天堂は石にコストかけないとこだし 手に入りにくくなったら別の何かで済ませるんじゃないの、ARMあたりでさ
>>736 強力な需要家にホイホイと答えられるFabなんてそうは無いよ…
専用工場作るぐらいの投資しないと駄目だろ
他所で造るのは難しそうだな 当然ながら製造は難しく、そのノウハウは「旧NECの最先端の技術が詰まった“秘伝のタレ”のようなもの」(業界関係者)。 あるルネサス幹部は「量産できる工場は世界でも鶴岡だけ。よそで作るのならば、二つの半導体を使うなど、設計そのものをやり直す必要があるのでは」 前出の業界関係者は「先の見えないWii Uのために、任天堂のわがままを聞いてくれる半導体製造会社があるのか」と手厳しい。
740 :
Socket774 :2014/02/09(日) 12:16:02.17 ID:rfvYGTKP
>>738 え?eSRAMならべつにTSMCでもどこでも製造できるじゃん
GFも持ってるしな>eDRAM 工場を移す以上設計変更は必要だけど、それはeDRAMの有無に関わらず起きることだしな もっとも数年後にわざわざWiiUの設計変更を行うかは謎だが
>>740 製造できるって事と、必要数製造できるラインを確保出来るって事は、別問題って事
日米の連携を深めるということで、東芝がIBM買えばいいかもね。秘密保護法で下地も出来てるし、米軍やなんやらの機密情報の漏洩も守られる名目になってるだろう。ザジャパンファブにしてもいいんじゃないか? それで、ソニーと一緒にゲーム用のなんかをまた作ればいいんじゃんかw
>>733 Intelがあるから別に最先端でもないんだけどな
むしろ天河2号のKnights Cornerが輸出規制引っかかってない時点で(ry
IBMは半導体製造部隊は売り払っても設計部隊は売らないと思うな 今後、半導体の微細化の進み方が鈍化すれば 同じ設計のプロセッサが長期間使えるようになるから 数の出ないプロセッサでも設計にお金をかけられるようになるからな IBMのような大型のコンピュータを扱うところにとっては有利になってくる
サムチョンがパクるよw
欲しがる度合いと資金が用意できる条件が揃うのは中国系ファウンドリ すんなり決まるかも
最先端を国外に出すか、というのもあるけど、メーンフレームとかどうするのかね。 アメリカではそんなに重要視されていないのかな。
なにそれ、POWERシリーズをインテルで委託生産するってこと?
「メーン」フレームとか新聞かよ。Mainのことをメーンなんて書くのは ものを知らないやつだけだぞ。
確かにメーンはあまりきかないな プロレスでメーンイベントとかいうのを聞くくらいか でも、俺が中学生だったら、まいんフレームとか読んじゃいそうだけどな
飛行機の機体やエンジンを設計するのに大型のコンピュータが必要だけど PFLOPS程度では最適化するのに性能が足りず、ZFLOPS級が普及する2030年まで待たないといけないと知って絶望 つい数年前まではペタ級登場であらゆる業界が変わる〜みたいな論調だったのにw
規模や詳細の差、あるいはブラフ spれが本当なら今飛んでる機体はどうなのと
パラメータ算出をある程度端折って経験値や匠の勘でシムってるに決まってんじゃん
>>754 時間あったらだけど[Philippe RICOUX.pdf - Symphos 2013]ってググってみ、
5ページ目に分かりやすく書いてある
70m×70m×20mの鉄の塊が飛ぶ時、翼に当たる粒子一つ一つの流れも全て計算するには
crayやIBMのスパコンが幾つあっても足らんのね
>>751 英語のカタカナ表記にこだわるのがバカバカしいので新聞表記に則っただけだ。
考えてみればNOAH-6も製造は委託だから問題ないか。
キャパシティが自社で埋められなくなって困ってるIntelが製造部門をさらに厚くすると?
760 :
Socket774 :2014/02/11(火) 10:59:18.32 ID:is2ZNr0H
日本の場合、競争に負けた下位メーカーが中韓に技術売る →日本の勝ち組メーカーも中韓の攻勢でダウンして負け組になる ってのがあったからなぁ 負けてる側をちゃんと買収なりしてたら、こんな事態にはならなかった 買ってるほうが負けてる側を買収っていうのは、技術・人材がライバルメーカーに流出するのを防ぐことにもなる
>>760 なるほどな・・・。
第二次大戦後、ドイツの技術者を囲い込むのに必死だったのといっしょだな。
我がドイツ軍の技術力は世界一ィィィィィィィィッ!
負けたほうを買収ったって程度によりけりだろ。 順当に考えて負けたほう=劣ってたわけで、劣ってた方まで抱え込むのはムダだし むしろ優秀な人だけ拾い食うことのできない人事制度のほうが問題
>>760 それ繊維業界で実証済み。楽観主義で設備投資→不況→生産縮小→経営悪化
→苦し紛れに設備を格安中古として海外に販売→海外に負ける→不況→生産縮小→…
IBMの工場を技術ごとインテルが買えば、IBMの開発した技術をただ同然
(コモンPの会費は払っていたが)で入手してきたGF・寒村の技術開発がストップ
して、事実上システムLSI製造はインテル/TSMCの2社だけになりそうだな…
>>763 技術的に劣って負けるパターンと、
技術は劣ってないが他の要因で負けるパターンがあって、
日本のハイテク産業は後者が多かった
後者の高い技術がそっくり外国メーカーに流れて、
勝ち組メーカーまで負け組転落するのはよくあることだね
ちなみにシャープが複写機事業をサムスンに売ってれば、 キャノン・リコー・富士ゼロックスはサムスンの大攻勢にやられて ちかいうちに大赤字になってたとおもうよ
IBMがファブ売ちゃったらIBM用のチップはどこで作るの?
TSMC
売った相手に作らせるだろ なんだかんだいって、勝手知ったFabだし
ファブ売るときに、今後◯年間はIBMのチップ作らないといけないっていう条件つけて売るだろ
当然POWERもzシリーズも作るでしょ
今eDRAMと言えばintelとIBMだけど なんか面白い発展するかね?
後藤ちゃんの推測ではIntelのeDRAMは過度的な手段、IBMは製造部門売却、本元のSony・東芝連合は撤退済
GoogleやARMのような天才集団に充電池の開発をさせたら ・長寿命(1万回以上の急速充放電) ・高密度(従来の2次電池の倍以上) ・発熱がほとんどなく安全 ・液体を使わないので液漏れ無し。 ・レアアースを使わないので安価 な物が実現するかもな
ルネサンスの時代じゃあるましい 万能の鬼才になれるほど現代科学は甘くない
というか電池の天才さんが電池メーカーとかで今開発なさってるから凡人は待ってろ
電池の天才が「改良」はやってるけど、 改良にとどまらない革命的な進化は他分野から出てくることも多い
本当にgoogleやARMが天才集団なら自社のサービスがもっと良くなってるだろw
IBMは高額な先端ファブが将来不要になる知見を得た、という電波が俺の脳内ゲルマニウムに飛び込んできた
外注取れる汎用プロセスだと安値受注競争に晒される わが道を行く特化プロセスは微細化追ってコケると本体もコケるくらいの開発資金が必要 自動ツールで汎用と設計互換を取れるくらいの付加価値プロセスなんてそうそう思いつかんし 捨てるか?! となった
先端プロセスは異常だった。 技術の一番先頭は元来割高なのが当たり前である。 割高なものはボリュームゾーンのピークにはなれず需要が限られ 利益率は上げられても利益の絶対量は増やせない。 LSI製造産業はそういう法則から外れた例外だった。 例外に成り得たのはLSI内トランジスタの単価が下がり続けたから。 その下がり方が鈍化するということは、例外ではなくなり順当に 法則に当てはまる産業へついに移行し始めたということだ。
>>782 そんなことはない。その先端技術に対して大衆からの需要があり、原価コストが低い場合、開発費を膨大な市場から得られるコモディティ市場は最先端技術を牽引しうる。すでにモバイルが半導体をひっぱってるのは明らか。ゲームだって、映画だって、その最たる例。
日本勢が最先端プロセスから撤退したら、かつて日本勢を追いかける立場だったIntelやTSMCが最先端に立って、 TSMCなんて棚から牡丹餅で莫大な収益を上げるようになった
785 :
Socket774 :2014/02/15(土) 15:30:38.47 ID:KlZ+c6fw
>>783 モバイルだってこれ以上の開発費高騰を吸収できなくなってるから
携帯&スマホ向けSoC新規開発から撤退する企業が多い訳で…
>>782 ,783
トランジスタサイズが半分になるから先端技術のコストを隠ぺいしてしまっていたわけだ。
現在では隠蔽しきれないほど高コストな最先端プロセスと、
先端プロセスによる恩恵の減少という事態になっている。
TSMCやサムスンは副業でスパコン用やったらどうかね。
高単価で高ダイサイズ、先端プロセスの恩恵は受けられる。
まあ、さまざまな問題があって簡単にはいかないだろうけど。
>>784 ちょっとだけ違うだろ。TSMCが台頭して先端に立ったから
日本勢が赤字で生産まで手掛ける意味がなくなり撤退した。
実は昔沖電気がFD-SOIのLSIを作ってた
>>786 TSMCは富士通の京で使ってたSPARCの製造やってたでしょ
半導体ベンチャー企業は消えていくのか? ISSCCで討論
http://eetimes.jp/ee/articles/1402/21/news074.html 近年、半導体業界の新興企業はひどい投資先となっている。
2011年以降、投下資本を100%近くまで回収できたケースはめったにない。
もし今、あなたが半導体企業に投資したら、投下資本のうち60%を失う可能性が50%もある。
ベンチャーキャピタルがファブへの投資から手を引いているのは事実だが、
それは当然の成り行きだ。世界は、新しいファブを建設するよりも、
GoogleやLinkedInのようなネットワーキングサービス企業を求めている。
794 :
Socket774 :2014/02/22(土) 03:20:06.87 ID:5aU1274G
NP困難な問題の性能要求に終わりなんてない
我々の数学が貧困であるというルートもあるよ?
797 :
Socket774 :2014/02/22(土) 15:07:29.96 ID:uxrbSgSr
Skylakeでは従来のビッグコア4つ以外に 何らかのスモールコアが追加されるのだろうか
そうなると予想する根拠も無いね
NP完全問題はコンピューターの性能向では歯立たない。 よってNP完全のために高速化することに意味がない。
問題によるとしか。組み合わせ爆発を起こすような問題だと、 実際上はヒューリスティックなアルゴリズムを使うわけだけど 計算リソースをつぎ込めば解が改善するとかはある話なので NP完全で言うなら、解きたい問題をSAT問題に落としてから SATソルバに解かせるアプローチがあるけど、よく並列化が検討されている
>>800 それはコンピューターの高速化ではない。
別の解放の適用だ。
ついでにいうとヒューリスティックとか、書くな。
バカだと宣伝しているような物だ。
>>801 誰がそのまま解くなんて言い始めたんです?
誰なのかしら 駆け抜けてゆく 私のメモリアル
解かないという選択肢 放置という選択肢 先送りという選択肢 昔のエラい人達は皆こうしてきた
解いたけど自分のノートに書いておくだけの人もいたよ?
解いたけど、それを説明するには紙幅が少なすぎると書いた人もいたよ?
AgnerマニュアルにSteamrollerはfp加算2パイプあっても1スレッドでは1本しか動かないという解析結果が... fp系のベンチで妙に性能落ちてるのが多いのはこのせいか
いろいろ荒削りだよね「x86勉強会 Bulldozer入門」 int.main.jp/txt/bulldozer/
>>804 何割早くなった、何倍早くなったと
分かり易い数だけ値を取りざたしてアピールし、成果だと主張もね。
解はほとんど差がないのに、目的をはき違え。
現代科学技術の一つのダークサイドだな。
公共事業のゴミどもがNP困難を利用するからほんとタチが悪い。
AMDのCPUが荒削りじゃなかった事なんて
>>807 そんなバカな、って気もするが…。
LSUがもたついてるンじゃねーかと疑ってみたり。
このへんはAthlon時代からの伝統だけど、 movd xmm, reg + movd reg, xmmのレイテンシが18サイクルとか冗談みたいに遅いし (片道9サイクル?)
>>813 ストアバッファが浅いのかね。整数はそうでもないから、浅いというより小さいのかも知れないが。
メモリ経由じゃなくてレジスタ同士の交換だからストアバッファとか関係なくね
地球シミュレーターも6年の更新時期迎え3代目になるらしい。詳細はまだ不明。 (SX-ACEは通常最大8ラックのところ16ラック以上の構成になるんじゃないかと思う) で、4代目があるとするとエクサスケールと同じ2020年頃なので 業界は相当活気づくんじゃないか。
活気付かなかったからNECも富士通もfab切り離したんだろうに アホらし
HPC用チップなんて製造象少なすぎてファブの稼働率を上げることは無理 HPCが活気づくのとファブビジネスにはほとんど関係ない
要するにいつになっても客を取れない国にケツ拭いてもらうだけの お仕事なんか活気付く事は永久に無いって事
どうせ最終的には軍事用なんだから青天井で予算をぶっ込めばいいかと それが1000億ドルとか200京ドルでも問題ない
軍用だからって大量の予算を引っ張れたのは大昔の話で 特にここ10年ぐらいはCOTSとか言って民生品を極力流用する流れ
でも、実際どうなんだろうね。国産、軍産スパコン系の予算を全部切って、全部民生品にしたらかえってうまく回るようになるかな?いろんな垣根がとれていい気もするけど、軍事系のハックは怖いなあ。
そいやLenovoはIBMのスパコン事業をイラネ、ペッっしてたな
IBMのスパコン事業は超収益事業だから売らないよw 売ったのは、そこらの民間の会社で使う格安のx86サーバーだよ。
鼻毛の親戚みたいなやつか 鼻毛のほうもあの値段だし収支酷そうだよな
いや、スパコン用も含めた全x86サーバを売った。 POWERとzシリーズだけを残した。
自分たちのやり方・市場で儲からない分野は値が付くうちに大胆に売りさばくんだよなIBMは。 先見の明は確実にある。 買う方は買う方で、自分たちのやり方なら儲かる算段が立っている。 ご存じの通りひとり負けなのは元電子立国日本。 税金湯水の参入障壁・重電分野以外、勝手に自滅、壊滅スパイラル未だ止まらず。 「NP困難な問題の性能要求に終わりなんてない」とか言っている池沼に言っても始まらないか…
>>825 スパコンよりその辺に転がっている
お前さんがバカにしたような書き方したx86サーバーの方が
速くて適用範囲が広く、役に立ち、自立的な経済的活動に有益じゃない?
意味分からなければレスは無用。
>>816 2020年はもう微細化の限界にきてる頃だろうから
次のスパコンは簡単に後続のスパコンに抜かれることはなさそう
>>831 だけどトップに立てるとも思えない。エクサスケールはよそも計画している。
京は一応ランキング2回くらいトップだった気がするが。
スパコンって言っても、linpack番長なのとそうでないのがあるからなぁ TOP500とかいうLinpack番長が有利なランキングより、HPCCのほうが役に立つ
その技術使えばスパコンが小型PC並みになるってのは間違い いつの時代も、スパコンは一般PCの数万倍の処理速度を持つコンピュータだからね
スパコンをパスコン大にか
今のハイエンドに近いグラフィックスボードはスパコンって言っていいんだぜ
倍精度で1.5TF超えてればな
Linpack専用ASIC作ってTOP500を荒しまくろうぜ
ClearSpeed・・・いやなんでもない
>>839 若者はもっと有意義なことに頭と労力と時間を使ってクレヨ’
↓あとはジジイに任せた。
積和やリャ良いんだろう、ダラダラと。 んでそれが数GHzで数百万並列にうごきゃ良いんだろ。 内積する配列の内容、数値は不問、意味・意義不問。 スリープット配慮して、同一配列から分散して入力しスカラーに多シコみゃおしまい。 そんなもん、コンピューターじゃなか。 求めていたもんじゃなか。
↓あとは池沼のダンゴと、社会にでそびれて大学でグダグダやっれる明日なきニートにまかせた。 ツバメでもいじってくそ論文量産してろってんだ、読んであげないから。 ちなみに幹細胞の画像加工はもっと巧妙にやれよ禿げども。
というか、まだその基準なのかYO 高級パソコン買えないやんw
Xeon PhiやTeslaは2枚でアウトですな
誤爆
Denverはそんなに警戒されているのかw
CPU重要じゃないなら64bit 8coreとかいらないじゃないですか A53ってことだから、もう独自で作る力が無いって宣言としか・・
CPUは重要ではないが、バイナリ互換は引き続き重要だな。仮にQualcommのIPと抱き合わせにしたとしても、MIPSや独自アーキテクチャだったら売れないだろう。
>>849 CPUは重要ではないっていうより、CPUは重要だけどCPUじゃ他社と差別化しにくいって感じだろ?
クアルコムが大成功したのは、無線・無線系ソフトウェア・開発支援サービス等の、
非CPU分部で差別化できたから
>>853 逆だと思う。
QualcommがARMについたからこそMIPSやSHを押しのけてARMが伸びた。
Appleも無線チップセットを買ってくれる大事な客だからね
>>849 一番重要なのはバッテリーの革新だと言いたい。
価格を今の1/10に!
容量は今の100倍に伸ばせ,ボケ
>>859 価格1000分の1で容量10000倍の方がいいだろ。言うだけならタダなんだから。
容量1万倍にすると、エネルギー密度がガソリンの100倍とかになって、あぶない感じになりそう
電池の容量に物を言わせてデバイスがゲシゲシ電気使うようになったら 中国とかの粗悪品メーカーが殺人懐炉みたいな製品ばらまきそうでやだ
熱で劣化しない電池を希望だな 現行のリチウムイオンは酷い
エネルギー体積密度を上げると、熱密度も増えてしまう。 筐体の放熱性能がそのままだと、温度の均衡点が上がる。 熱による電池の劣化を材料によって改善したとしても、使用者に危険を強いる。 問題を根本的に解決するには、取り出す電流を減らすべき。 電池の体積、表面積もあまり小さくしない方がいい。
これは気になるな。
イオン化傾向で言ったら、化学電池材料の単体元素としてはリチウム以上のモノって今のトコ考えられない訳だろ 陽極&陰極材料の余地はまだあるんだろうけど 今のリチウム電池に対する試行錯誤って、どれだけ沢山のリチウムを詰め込むかって話がほとんどだし 当面、画期的に容量改善できる電池ってのは出てこないのでは…
燃料電池をって話は一時期あったけど聞かなくなったな
エネルギー密度を一桁上げるには燃料電池しかないんだが、 大電力が出せないから車や発電機には使えず、小型化できないからモバイルには使えず、小電力なら太陽電池が無補給で使える。 決め手となる用途が無いから実用化が遅れに遅れている。
きれいな水を出すだろ…
つ 同位体熱電池
同位体の熱電池って、木星より遠くに行くようなのにしか使われてないだろ
実は心臓ペースメーカーにも使われてた。新規に製造はされていないが、今でも稼働中のものは存在する。
TIが退場し、NVもほぼ退場状態となった、スマートフォンカテゴリ向けプロセッサ界隈は 成熟してきたのかと思いきや、先週のMWC 2014期間中こんだけ発表された。まだまだ熱いな Qualcomm Snapdragon 610(64bit 4コア)、Snapdragon 615(64bit 8コア) Samsung Exynos 5260(6コア)、Exynos 5422(8コア) MediaTek MT6732(64bit 4コア)、MT6591(6コア)、MT6752(64bit 6コア) Hisilicon(Huawei) kirin 910(4コア) 比べるもんじゃないが、この活況はVIA AMD Cyrix IDTと入り乱れていた自作PC最盛期を思い起こすわ
a53だろほとんど
先進国向けハイエンド機種 Qualcomm それ以外 Samsung・MediaTek・Hisiliconで食い合い だろうね
MediaTekってよく聞くな どれだけチップ開発してるんだろう
Qualcomm を東京ドームとすると MediaTekは多摩川グラウンドぐらい
MediaTekはデジタル家電向けチップセット大手だわな 日本メーカーのシェアはだいたい持ってかれた
アスキーの記事がWebに公開されるのって誌面の一月遅れくらいじゃなかったっけ にしても何も調べてないなー
あるいは書いてるのが掲載のかなり前なのか
日本のテクノロジーライターは、 内容が良質だけど、分かりにくい・読みにくい記事を書く人と、 反対に内容が低質だけど、わかりやすく読みやすい記事を書く人がいるな とくに後者は適度に煽りをいれた記事を書くので、注目されやすい
スマホやタブレットの容積の95%がバッテリーなんだよな これが結局今の人類の到達点
バッテリーよりも先に無線送電が発展して 内部から外部バッテリーへ、外部バッテリーから給電スポット整備へ なんて流れも有りうるな
バッテリーバックですらバッテリーが95%なんてのは無いのに。
未来から来たのかもしれない
891 :
Socket774 :2014/03/06(木) 12:56:19.60 ID:FFiBzitv
端末の短辺の95%を電池で占めることさえ難しい。 ましてや容積比で95%を一種の材料で満たすのはとてつもなく難しい。 なんで95%が電池だと思ってしまったのか。 電池交換用のふたを開けたことがないのか?
893 :
Socket774 :2014/03/10(月) 18:28:31.50 ID:pjVAq9DH
【後藤弘茂のWeekly海外ニュース】Haswellの高性能グラフィックスのカギ「Intel内製eDRAM」の詳細 - PC Watch
http://pc.watch.impress.co.jp/docs/column/kaigai/20140310_638791.html IntelのeDRAMチップで特に目立つのは、1個のチップで102.4GB/secクラスのメモリ帯域を実現している点だ。
比較すると、GDDR5が最高の7.2Gtps時にシングルチップ(x32時)で28.8GB/secなので、IntelのeDRAMはGDDR5チップの4倍近い帯域となる。
JEDECの次期DRAM「HBM(High Bandwidth Memory)」は4ダイをスタックした時の帯域は広いが
1チップ当たりの帯域はIntelのeDRAMの半分程度までとなる。HaswellのeDRAMは、ダイ当たりの帯域では抜群の技術となる。
もう1つ目立つのはメモリアクセスのエネルギーだ。
OPIOのビット当たりのエネルギー消費は1.22pj/b(picoJoule/bit:ピコジュール/ビット)という。
コンピュータ業界が目標としている1pj/b以下の大台にあと一歩のところまで近づいた。
DRAMの消費電力が32mWから1Wへと30倍も悪化し、ビットあたりのエネルギーも1pJ/bから1.22pJ/bへと2割悪化して、目標から遠ざかっているように見えるけど
32mWって何の話?
バッテリー95%の人と同じ人じゃないの?
「オンパッケージでの統合」の画像のビット当たりエネルギー消費の比較図。どう見ても変な図なんだけど もしかして、左側のeDRAMはメモリセルの消費電力も込みの数値が書いてあって、右側のPCHの消費電力はメモリセルの消費電力を含んでないのかな? それじゃあ何の比較にもなってないじゃんと思った。
今まで自分で考えたことは全て忘れて、まっさらな頭でもう一度記事を最初から最後まで通して読み直してみて。書いてないことを勝手に補完とかせずに。
比較?どこが比較なんだ 頭おかしいんじゃねーの? 右のダイはLV/ULV版Haswellのダイだ。いわゆるウルトラブック用。 別にeDRAMのほうが電力効率が優れてるなんてことは言ってない。
あぁ、なるほど、eDRAMは電力効率は優れていないんですね。 エネルギー効率が目玉みたいな書かれ方をしているように見えたので、良いのかと勘違いしてしまいました。
通常電圧のeDRAM混載と省電力版ダイ比較してどっちが優れてるかなんて 不毛な議論だ。 そもそも図を見て比較だと思うほうがバカだよ。 どこに比較なんて書いてあるんだ。
> あぁ、なるほど、eDRAMは電力効率は優れていないんですね。 これも勘違いだな。 そもそもお前が比較だと勘違いしたCrystal WellとHaswell-ULの図は 【比較用に並べてあるわけではない】
なるほど、あの図は、左のCPUは消費電力が大きい高速なCPUで、右のCPUは消費電力が小さい低速なCPUということですね 後藤先生の煽り文に目をくらまされて、左側のCPUは高速でしかも省電力なのかと思いつつ図を見て、あれ、変だなぁと思ってしまいました 煽り文への耐性が低すぎて判断を誤りました。
・一般的には高速なIFほどエネルギー効率(pJ/bit)は悪くなる ・eDRAM-CPU間のIFは同じオンパッケージのIFであるPCH-CPU間のIFと比べて 転送速度は25倍程度高速だがエネルギー効率は同等に近いレベル(1.22pJ/bit vs 1pJ/bit)に抑えた てことでしょ?さすがに書く側もこの程度のリテラシーは期待していると思うのだが
25倍つか6.4vs2
皆さんのお陰で今やすっかり理解しました。eDRAMのIFは従来のDRAMのIFよりも電気を多く食うが、速いということですね。 そして、コンピューター業界が目標としている1pJ/b以下という目標に「あと一歩のところまで近づいた」どころか、逆にむしろやや遠ざかったのですね。
そりゃチャネルあたりの動作周波数(3.2GHz vs 1GHz)で 転送速度は102.4GB/s vs 4GB/sでしょ
途中で >これだけの高帯域インターフェイスで、消費電力はわずか1W強に抑えられている。 と書いてるんだから何の話してるかくらいわかるだろ、普通
「メモリ用の高速IFとして」目標としているとまで書かんと分からんか? つーかPCH-CPU間のIFがいつ従来のDRAM用IFになったんだ
かぶった
現実に既に目標達成済みのIFが存在するのに、それよりも悪いものを出してきて、目標に近づいたというのは全く納得出来ないですね
eDRAMなしのPCHが目標達成(笑)してるとか もうアフォかと
現行のDDR3-1600 1モジュールですら12.8GB/sあるのに、4GB/sのどこが目標達成済みなの?
帯域と消費電力の二つの要求があって〜という話をしてるというのに クルクルパーは誤りを認めないから困る
え?左の図の消費電力は、eDRAM自体の消費電力も含めてのものなのですか?だとしたら左のeDRAMは帯域、電力効率の両面で圧勝していることになるのでは。
916 :
Socket774 :2014/03/11(火) 00:34:55.90 ID:eTId+kJ3
なんでPCHがDRAMのI/Fになるんだよwwww PCHってのはサウスブリッジだぞ CPUとPCH(サウスブリッジ)を結ぶ低速I/FがDMIだ DRAMのI/FはCPU内蔵だし、 昔はノースブリッジにあってFSBやQPIで結ばれてただろ PCHとは全く関連性がない
あぁそうでしたか。意味ありげにPCHと書いてあるのでPCHからDRAMがつながるのかと思ってしまいました
もう一度読みなおしてみて、新しい発見がありました。これは、まったくeDRAMの話でもDRAMの話でもなくて、接続IOの消費電力の話だったのですね。
あーすでに記事になってたのね、失礼
AArch64で遊んでみたけど既にAppleのアセンブラとGNU asで構文に一部互換が無くてワロタ
トランジスタと電力は限られてるので デバイス特性と人間の感覚にあわせて最適化するんですよ。
こういう最適化は最大多数の人間に最適化されるので、少数の人が割を食う。 市販ディスプレイは3原色発光で3色型色覚の人に最適化されてるため4色型色覚を持ってる少数派は色再現性に不満が出るけど無視されるといった具合
そういや4色な液晶作ってるとこあったな 色とかどうなんだろ、一度実物見てみたい
クアトロンは家電店で見られるじゃろ
クアトロンの効能は、色再現の高さじゃなくて輝度うpが主だぞ…
初期のは色変換が変というかクセ強かったけど 最近のは3色と並べて比較で青空が綺麗だった
ブラックライトを見ると暗いのに眩しい感じがするけど、 もしかして紫外線感じてるの?
紫外線で目が焼けてるだけじゃね
俺も赤外線視細胞が欲しいな
もし最後のノードになるんだったら国内勢はもうちょっと粘ればよかったな。 まあ、28はそれだけ難しかったんだろうけど。
>>933 Intelは14nm行ってるのに、お前は何を言っているんだ?状態だな…
ま、fabレスのSoCメーカーはオワタ、という事で。
936 :
Socket774 :2014/03/25(火) 21:32:11.01 ID:8DaIQS93
アルテラさんはIntel 14nmを絶賛してるけど、コストについては触れてない。
やっぱりチョーお高いのかしら?
http://members2.jcom.home.ne.jp/t.hattori/columns/EJSV1305.pdf Intelを選んだ理由は2つある。まずは最も卓越した技術力という観点からだ。
次世代の製品開発を行うためにどの企業が最も有望な技術を持っているか、時間をかけて調査した。
ファンドリーであるか否かは考慮せず、全ての半導体企業を調査対象にした。
その結果、消費電力、性能、微細化の3点を満たすのはIntelだけだということがわかった。
FPGAメーカーから見ると配線も含めた完全な14nmはメリット大きいわな 他社の16/14nmは配線は20nmのままだし
問題はより小さいnmが存在するかどうかではなく、 金額シェア最大の座が小さいnmへ譲られるかどうかだろう。 生産量最大の製造プロセスは32/28nmですらない。
940 :
Socket774 :2014/03/26(水) 08:59:48.89 ID:7WcvGKNs
完全にIntelが優位にたってるな [Intel] 22nm 2012年 [TSMC] 20nm 2014年 [Intel] 14nmFinFET 2014年 [TSMC] 16nmFinFET 2016年
競争がないってのもよろしくないからな はやいとこ他もインテルに追いついて、追い越すくらいになってもらわないと
942 :
Socket774 :2014/03/26(水) 10:10:31.48 ID:VCp6NC1a
世の中Cpu負荷下げてGpu活用にシフトしてるから、GpuクソなInteIは微細化で有利でも競争力は大して高くないよ
945 :
Socket774 :2014/03/26(水) 15:10:53.23 ID:+fuL+bSj
[GTC 2014]NVIDIAの次世代GPUは2016年の「Pascal」。3次元メモリ技術で帯域幅は1TB/sに
http://www.4gamer.net/games/251/G025177/20140326001/ > PCI Express 3.0比で5〜12倍の帯域幅を持ち,
> CPUとGPU間,あるいはGPUとGPU間をつなぐ「NVLink」
nvidiaの将来のGPUに搭載されるNVLinkって、これが実用化されると、
いまのスーパーコンピュータが完全にGPGPUにとってかわられる可能性がある技術なんだよな
従来型スパコンとPCクラスタやGPUクラスタは、
コア性能はすでにPCクラスタが上で、コア-メモリ間の性能もGPUが上になってるんだよな
従来型スパコンの最大の利点は圧倒的なノード間通信速度のみになった
NVLinkが進化してこれを巨大クラスタにも適用できるようになると、
従来型スパコンに比べて圧倒的に低コストな汎用品ベースで作られるGPUクラスタが、
大規模サイトのノード間通信においても圧倒的にリードする可能性がある
nvlinkはintelのKNLがQPI接続出来るのに対向するためと思うよ
AMDがPS4やkaveriでとっくに搭載してるhUMAもどきだな 2年遅れでHPC限定で搭載か
全然違います
何にせよアムドの場合実物が出てきてみないことには全く信用がないからな。 マントルゲームだってセロリン+ゲフォでDX11の方が速かったりするんだろ。
APUなんて名乗ったところでCPUもGPUも中途半端の負け組み連合だからね
外部バスも含めたものね 要はhUMA+Freedom Fabricと似たようなもんだ そもそもIntel Xeonのオマケだから売れてたのに敵対してどうすんだw それともQPI互換にでもするとか? どのみちPhiとセットで売り出されるから、居場所なくなるだろうな まさかNvidia単体でも勝てるとか勘違いしちゃった?
titanのopteronは本当におまけだったけどな
それより高性能なFireProあるから別にいらんけどな CUDA縛りが強いからそうなってるだけで、OpenCLも普及している今なら別に無くても困らん AMDはx86、ARM、高速外部バス、コヒーレントバス、dGPU、iGPU全部持ってるから、IntelやNvidiaがなくても全く困らんよ
amdは全く影も形もないんだが
955 :
Socket774 :2014/03/26(水) 17:56:53.94 ID:+fuL+bSj
将来、InfiniBand、QPI、HyperTransport、NVLink、みたいなのが発展して、 大規模スパコンにも利用可能になれば、その時は従来型スパコン終焉の時でしょう 逆にそれまでは、従来型スパコンもやっていける
どういうのを従来型と思っているんだろう
自分の会社の名前を規格の名前にしちゃうのはどうかなと思う 普及させる気が感じられない
>>956 日本勢なら、京やSXシリーズ、
外国なら、IBMが作ってる従来型?スパコン
ベクトル型とスカラー型の事が言いたいのかもしれない。 が、 そのレベルで何か予言した気になられても、その、臍で茶が。
962 :
Socket774 :2014/03/26(水) 18:25:23.85 ID:L7RAKlPu
大昔 汎用CPUより、スパコンのCPUのほうが圧倒的に高性能→Alpha21264やらPentium3で追いつかれる 昔 汎用メモリより、スパコン用メモリのほうが圧倒的に高性能→GDDR5積んだGPGPUで追いつかれる 今 汎用のノード間通信(InfiniBandやEthernet)よりスパコン用の専用ノード間通信のほうが圧倒的に高性能 最後の大規模スパコンの高速ノード間通信がかりに汎用品でできるようになれば、 従来型スパコンの利点がなくなり、その時に従来型スパコンが絶滅する
963 :
Socket774 :2014/03/26(水) 18:27:43.03 ID:L7RAKlPu
>>959 その区分で言ってるわけじゃない
現時点で、従来型スパコンは高速低遅延なノード間通信くらいしか利点がなくなった
ので、高速低遅延ノード間通信が必要なアプリケーションでは圧倒的なパフォーマンスを出すが、
そうでない計算に関しては、PCクラスタやGPUクラスタで十分
>>963 インターコネクトが肝って話しだったようだ
が
その程度の認識ではGbEの普及で途上国も高速なクラスタ型HPCを実現してしまう
などと危惧されていた15年くらい前を思い出して、臍茶。
金さえあればいくらでも小さくできる そう,神さえも超えて! それがサタニズム精神!!
>>962 それよりもデータセンター向けの直流給電システムが一般向け戸建て住宅でも使用できるようにして欲しいわ
オンデマンドで大電力を供給可能になった今こそ必要なシステムだ。
民生用の汎用規格が普及しても、専用機はそれ以上を求めて、さらに上の階梯へ昇っていくだけだからなあ。 コスト下げよういんにはなるけど、トップ争いを支配する要素でなないし そんなこともわかんない予言者様の踊りも退屈で、お腹のラッパがプー
>955 >962 InfiniBandでのノード間接続は割と以前からスパコンで広く使われているのに、 今更何を言っているんだ? 近年だと上位のスパコンの約半数で使われてる。 >964のいう通り、認識が15年以上古い。 あとこの話題はあきらかに「CPUアーキテクチャ」の話ではないだろ。 スレ違いだから専スレでやれ。
そういやDENVERがGPU統合という話はどうなったんだろうね あれは広義のCPUアーキテクチャだと思うが
直流って100Vのつもりじゃないよな。同じ電力で電圧下がったら 電流増えるから配線をACよりも太くしないと損失、発熱が増えてしまう。 コンセントに準露出状態になるのは、高電圧低電流よりも 低電圧高電流の方が危ない。データセンターは素人が 入らないからいいけど。
>>962 >Pentium3で
いくらなんでもサバ読みすぎ
x86
1994 P5 100MHz 0.1GFLOPS
1999 PIII 800MHz 1.2GFLOPS
2000 PIII 1133MHz 1.7GFLOPS
2001 PIII 1.4GHz 2.1GFLOPS
SX
1994 SX-4 2GFLOPS 同一メモリ空間64GFLOPS
1998 SX-5 8GFLOPS 同一メモリ空間128GFLOPS
2001 SX-6 8GFLOPS 同一メモリ空間64GFLOPS
同一メモリ空間
x86 のマルチコアやDP、MPのようなもの
>>970 データセンターはHVDC(高電圧直流)で確か380Vだよ
恐ろしい
Superπのヘルプに、1993年のスパコンHITAC S-3800/480で100万桁の計算が5秒でできると書いてありますね。 Core i7 3770Kを7.1GHzにオーバークロックしたPCで5秒07という記録があるので、デスクトップパソコンの性能は1993年のスパコンに追いつきつつあるという状況でしょう。
974 :
Socket774 :2014/03/26(水) 20:39:21.68 ID:AJrjdnNj
975 :
Socket774 :2014/03/26(水) 21:55:15.07 ID:5GQ0eqCc
>>974 シノプシスを使ってる顧客が、微細化が必要ない半導体を設計してるメーカーなんだろ
>>973 それベクトル化込みでだろ。
SuperPIが出来た当時はx86にはMMXもSSEもなかったし、まして
本格的なSMPサポートもなかった。
並列化込みで書き直したプログラムなら、Core 2 Duo時点で
とっくに3秒切ってる。
>>974 ってか最先端の高価格プロセス品がバカスカ売れるんだったら
こんなに半導体ベンダ撤退続かないし製造機器ベンダだって粘るだろww
65nmって初期のCore2くらいだったかな……俺の記憶が正しいとすると、今でもたいていそれで間に合う気がする 180だとPentium2あたりか、急ぎでない用事ならなんとかなるんじゃないか
ARMv8は命令が一新されて別次元なんて話が多かったけど、 ARM公式が10%程度って言ってたし、ベンチでもそのくらいだし、 結局x86の32bit→64bitの向上率と大差なかったね
981 :
Socket774 :2014/03/26(水) 23:05:42.41 ID:5GQ0eqCc
些細な部分が違ってるかもしれんが、 ARM 32bitの命令が酷いことには変わらない
OoO・分岐予測をやるようになって32bit幅の命令のうち4ビットを占める プレディケートが事実上死にビットだったりとか、あとロード・ストア命令の アドレッシングなどに用いる即値フィールドが12ビットしかなかったりとか。
開発者にとっては早く64ビットに移行してもらいたいだろうな PCと違って買い替えサイクル早いしうまくいくかな
>>973 それってログの書き出し時間も込みでの時間なのだろうかと20年前からの疑問だわ
>>981 座談会中ではARMのレジスタが16本しかないので酷いと言われてるけど、ARMに関しては、レジ
スタの数は実際それほど酷い仕様ではないと思う。
コンパイラの吐いたコードを見てもレジスタの数は足りてる場合は多いし、足りない場合でも、レジ
スタの数が足らずメモリに割り当てられるデータは使用頻度の低いものが優先されたりするのが
普通なので、さほど問題とは思わない。
個人的には1語32bitの中に実行条件やら3オペランドやらであまり有効活用されてないbitが居座って
いるのでコード密度が低いところはもったいないなあとは思うが、酷いという程ではない。
詳しそうな人登場したから質問してみる
>>985 x86、power、armなど、どの命令セットが一番優れてると思いますか?
どれが普及するのが開発者にとって一番良いと思いますか
「何をするのに」優れているかってつけないとね マイクロプロセッサの用途なんて、電気釜からスーパーコンピュータまであるわけで 何か一つがどれにむけても最適とかないだろ普通
このスレ的には、ハイスペックなスマホ・タブレット・PC・サーバ・HPC用のCPUでいいだろ
スマホからHPCまでって絞る気ないじゃん
x86が一番だな。 歴史が証明してる。
歴史って言っても拡張命令増えまくってるけどね
増やせるのがメリットだろ。
文明の否定だな
データの肥大化や勝利能力の向上は問題ない ただ,それにかかる電力が増大することだけが問題だ
このスレの人、知的でかっこいい・・・。
>>987 どこが優れてるかはその人の基準でいいし、
どれが普及すべきかというのはもう一つ高次元の話。
梅
1001 :
1001 :
Over 1000 Thread