1 :
Socket774 :
2009/06/27(土) 12:48:11 ID:ydNi0e8M
2 :
Socket774 :2009/06/27(土) 12:48:53 ID:ydNi0e8M
自分で2get。
乙
5 :
Socket774 :2009/06/27(土) 15:24:20 ID:8fMuj/2g
Core 3 Duo Core 3 Quad の方が良かった・・・
6 :
Socket774 :2009/06/27(土) 18:54:26 ID:9B0nRMZj
LGA775 を維持してほしかった。
もうLGA1366で組むしかないのか。
Intelはこのデタラメをさっさとどうにかしろ VT × E5x00 ○ E6300 × E7[2-5]00 ○ E7600
>>10 74,75もVTおnのものあるし…
いやまオレは混乱してないからいいんだけれどもさ
俺個人は。
>>11 あるとしたら公式Spec Finder でなしになっているのと食い違っているから
輪をかけてデタラメだな
Gulftownが4万円くらいまで落ちてくるのはいつ頃だろ
2012年3月ごろ
Corei系の次の世代のやつを買う
sandybridge?
ところで話は変わるが、シリコン貫通ビアでDRAM接続するのはいいが、単純に ダイの裏側にDRAMパターンすりゃいいじゃねーか?で、裏と表を貫通ビアで接続すると。
鬼才あらわる 1Dディスケットじゃないんだから、穴あけてひっくり返して裏面も、ってわけにはいかなくね?
えっ無理なの? ウェハの状態で位置決めだけきっちりやれば出来ると思うよ。 AMDがやればいいのに。ネイティブ・オン・ダイとかってさw 得意だろ?AMDはこういうのw
裏側DRAM生成方式だと歩留まりの問題が出るだろ。 貫通ビア接続方式ならMCMと同様で歩留まりを向上可能だし。
移送とかでも問題が出る気がす
接続時の不良は表裏の方が少なそうだけどな。 配線を容易に増やせてより広帯域にもなりそうだし。
1枚に両面作るのは裏表とも完璧につくらないといけないし 位置決めや加工もも難易度上がって両面とも傷やゴミ付いちゃいけないから気を使うかも 両面チップをを積み上げる場合も片面で反対側は端子だけより難度あがるだろうし
そもそも、最近ではチップを実装する前にバックグラインドで裏面を削るのが普通だが、 削ることが出来なくなるなあ。
30 :
Socket774 :2009/07/04(土) 20:31:51 ID:IYPvJrHB
LGA775の最高クロックCPUを手に入れておきたい。
Pen4
確かにw 定格3.8GHzを超えるCPUが なかなか出てこないな… Core i7のシュリンク版Westmareは コア数が4→6に増える関係で、 3.6GHzどまりだそうだし。 SandyBridgeは6〜8コアだから こちらもクロックアップは期待できん。 4GHz超えは32nm世代からかな。2012年。
SandyBridgeって最初から32nmじゃなかったっけ?
corei5対応マザーボードが出るのはいつごろなのかな? M-Atxマザボを交換したいんだが、i5近いんならそっちも考えようかと。
32nmになろうが22nmになろうがOCなしで4GHz超えのCPUがでるわけない。 今後、クロックがあがることがあっても4GHz超えは絶対ない。 つーかシュリンクすればするだけ回路が不安定になって どうすれば安定して処理できるかが問題になってきてるのに。 クロックが上がる要素の無い現状でどう考えたら4GHz超えだとかいえるんだろうか? 俺の知らない何か技術的根拠でもあるのかな?
つーことは、3G〜3.8Gでウロウロしながら コア数だけがムダに増えていくってことでFA? 4way以上のマルチコアが役立つ場面って 家庭では限られるよな。みんながエンコや 3DCGするわけじゃない。 PCの行き着く先は白物家電だね。 そもそもワープロにオーバー3GHzもクアッドコアも 必要ないからな。
まるでシングルが全く上がらないかの言い種だな。 散々な言われ様なNehalemですらシングル性能もIPCも上がってる。 ただひたすらコア増やすだけではない。
ほとんど間違えずに口述筆記してくれるワープロとかなら ハードスペックはまだまだ必要だが、そういうものに需要があるのかどうか
>PCの行き着く先は白物家電だね。 >そもそもワープロにオーバー3GHzもクアッドコアも >必要ないからな。 その第一弾がATOMとかなんとか・・・・
Nehalemに似てる気がするようなしないような… コアが鏡像対称じゃないとこからしてやっぱクロスバー じゃなくてリングバスかねえ
65nmの常用限界は3.6GHz。 45nmの常用限界は4.0〜4.2GHz。 なのに下がってるのかw
写真にRingって書いてあるし
このコアレイアウトを見て、ふとインテルが80年代末だか 90年代初頭だかにブチ上げた「Micro 2000」構想を思い出した。 アレそのものだな。2000年には出せず、10年以上ズレ込んだが。 当時はなんでCPUコアが4つもあって、3D機能をCPU内に取り込むのか、 オンチップキャッシュが載ってるのか、趣旨が理解できなかったよ。 インテルの中の人は、20年先を走ってたんだな…
構成をみるにLynfieldの後継はWestmereスキップでこれになりそうだな。 でもH系マザーしか使えな内蔵GPUは意味ないね…
内蔵GPUも使用しない場合はストリーム処理用のコプロセッサとして動作させるかもしれない などと寝言を言ってみる
以前L2は512KBって情報を見たことあったけど、256KBのままなんだな。
既存統合GPUと違う点はL3に繋がってるってとこだな
モジュール構造で別途2コア+GPU版や、GPUディセーブル版も出てきそうだな
この4コア+1GPU(AVX)構成な長方形のレイアウトを見る限り ハイエンドはその倍という話も本当っぽいね リングバス同士をLarrabeeみたいにつなげるのか、単に延長するのか ただスカラ処理は今回もあんまり手が入らないまま…?
>>52 >ただスカラ処理は今回もあんまり手が入らないまま…?
Nehalemの時点で準備領域が取られてた可能性があるんでないか?
32nm化の際にその具体的設計をして、SandyでONにすると
>>52 スカラに関してはもう既に
行くところまで行った、という事じゃないの。
正直ここからブレイクスルーってのはおそらくない。
SIMD方向の拡張で特定演算に関してはスピードうpできる方向に拡張するぐらいしかないだろうな。
Core2→Nehalemでも上がってるからねえ。 MAが代わる度に1〜2割くらいは上がるでしょう。 昔は倍々ゲームで面白かったが。
>>57 >Core2→Nehalemでも上がってるからねえ。
向上の内訳は
メモコン内蔵とかキャッシュ周りとかがメインだから。
厳密な意味でのスカラ性能ってのはおそらく数%も上がってない。
このスレみてると、 The singularity is nearっていわれても、えーって気分になるよな。 まったく違うところから本当に物事が変わってしまうようなものが出てくるかも知れんけど。
人工知能は、Aiの延長として作るならフレーム問題の関係で、構造自体をシュミレートするなら物理演算量の関係で どちらにしてもベクタ性能があればあるだけいい(少なくとも今は数桁は足りない)から 現行x86アーキの性能の壁とはちょっと話が違うと思う。 現行技術の延長で作るとすれば、今で言うLarrabeeやGPU統合シェーダみたいな比較的小規模なコアのメニーコアプロセッサで 1ノード当たり数k〜数M個のユニットが載ったようなクラスタになるんじゃないかな。 ノード間結合をどうするかが問題だけど。
>>60 酔っ払ってるからあんまり深く考えて書いてないんだが、たしかに現行Aiの延長なら、
ベクタ性能が求められるんだろうと思う。構造のシミュレートの方はまったくしらないんだけど。
でも、いまのところベクタ性能が数桁たりないとして、
市場が現在求めているものと違うから機能強化されていないって分を考慮にいれても、
特異点が近いっていっている人たちのようにいくのかな?
おれは、ハードウェアやコンピュータ一般に対して素人なので正確な認識が難しいのだけど
あの人たちって、演算性能はめちゃくちゃな勢いで上昇していくし価格は下がっていくぜ
というノリを感じる一方で、このスレやLarrabeeスレからは個々の技術にもなんらかの
閉塞感を漂わせているような印象がある。2chだからかっつーのもあると思うが。
>>58 そんな外部的な事よりMacro-Fusionの強化が非常に大きい。
x86命令でも強化され、更にx64にも対応したしな。
キャッシュ何て容量的にみれば減っているくらいだ。
>>62 >キャッシュ何て容量的にみれば減っているくらいだ。
L2は容量落とした分、レイテンシ下がってるんだが。
(つか共有L3含めたら容量的に増えてるだろ)
それにCore2よりキャッシュ依存度が低い。
(メモコン内蔵とQPIによる帯域増強)
ion売れてるな。 PCにおけるベクトルプロセッサのウェイトはスカラプロセッサに対して相対的に大きいことを完全に露呈したね。 うむう、やはりFUSIONのようなアプローチが今後のトレンドになる気配が濃厚になってきたな。
intel純正ネットブックでHD動画再生可能になるまでは売れるよね多分。
>>66 だね。LincroftがHDに対応し、尚且つロード10wに収まったら面白いんだけどね。
>>63 お前がなw
>>64 ん?
別にそんな事知ってるよ。
容量はCore2 Quad 9と比べたんだけどw
何と比べたんだ?w
つーかメモコンやキャッシュが性能向上のほとんどだったら、
某Aのあちらさんはかまりすげーんだなw
笑止
>>68 Core2quad9xxxは低レイテンシでアクセスできる、L2と呼べる領域は1コアに6MBしかないじゃん。
合計で12MB載ってるけどさw
隣のL2にアクセスしようものなら倍近いレイテンシ掛かるから
単一8MBのi7と容量だけで比較するとどうよ?
中レイテンシ高ヒット率の共有キャッシュより
小レイテンシ中ヒット率の個別キャッシュ+中レイテンシ高ヒット率の共有キャッシュ構成の方が
CPUから見れば平均レイテンシが下がって高性能になる。
あと共有キャッシュに掛かる負荷は
アクセスしてくる全コアのキャッシュミス率に依存するから
L1しか持ってないcore2より、L2まで持ってるi7の方が共有キャッシュの負荷は低く
複数コアから同時アクセス要求がくる可能性が低くなり
他のアクセスの順番待ちになる時間も短くなって好都合。
よくわかんねーから3ぎょうでまとめろにゃー!
ニコイチは キャッシュがどれだけあっても 所詮ニコイチ
HD(のMPEG2やH.264)動画再生は1つの基準点ではあるが スーパーハイビジョン(7680×4320)は16年後。 それまではず〜っとHD。 SD品質なDVDは、Pen2の頃までGPUの再生支援を使っていたが、 Pen3以降は誰も使わなくなった。
>>69 で?、としか言い様がない。
だから何なんだ?
キャッシュがIPC向上に全く役にたってないなどと言った覚えないんだけど^^;
Macro-Fusionの効果を妄想と言ったオバカはいたけど。
>>72 省電力に対する社会的なプレッシャーはDVD時代とは明らかに異なるから
DVDで起きた事がそのまま踏襲されるとは限らないと思うけどな
汎用ロジックと専用ロジックは場合によっては複数桁効率違うわけで
sadybridgeではGPUコアが統合されるようなのですが、 そうなると今のように日進月歩なより高性能なGPUカード にとりかえてゲームのFPSを上げるといった事が 出来なくなるんでしょうか?
>>75 そこはGPUなんて書かないで汎用シェーダーと書くべきだろう
そのIntelのencodeロジックが”GPU”オンダイに搭載される可能性だってあるんだから
>>76 でも、一般用途レベルの3Dなら、現行のGMA X4500HD程度で充分すぎるってのはある
これでもMobilityRadeon X1300やGeForce Go 7400レベルで
少し古い、軽めの3Dゲームならさくさく動くわけだしな
むしろCPU補完の汎用シェーダーとして使われる可能性が高いにうちも1票
>>76 無理に難しく考えて無くていい
今のチップセット統合GPUと同じだ
80 :
Socket774 :2009/07/09(木) 20:51:53 ID:yjcpfWa4
>>71 QPIならQPIなら、なんとかしてくれる。
キューピー愛?
>>68 >つーかメモコンやキャッシュが性能向上のほとんどだったら、
>某Aのあちらさんはかまりすげーんだなw
実際AMDのフェ何とかは
クロック上昇とキャッシュ増量(当社比)が
性能向上のほとんどだが。
Moblinはどうする気だろう かなり期待してたんだが
MoblinはMIDと非力なネットブックに特化したディストリだし 狙ってるところが違うんでしょ
つかIntelはMoblinを売りたいわけじゃなくてAtomを売りたいわけだしな
>>82 Pentiumシリーズみたいな売り方だね。
今はARMで済んでも、JavaScriptを速くしたい、ネイティブコードを動かしたい、 となったときに、x86の複雑さのいくらかが必要になってしまうんだよね。
Atom自作オタも終わったな。 企業では仮想化も進むし、ローエンドデスクトップ市場自体が消えるんじゃないか?
シンクライアントならそれなりの性能があればいいんだから むしろatom向きのような? そういう話じゃない?
シンクライアントといってもJavaScriptは動かすわけで CPUをケチると結果として高くつくような気がする。
性能なんていらないと気付いた層を戻すことは絶対に不可能。
性能なんていらないと言うやつは、PCで何かをするということ自体に向いてない。
PCでネット、動画 高性能なCPUは必要ない
流石にプレスコ未満の性能のatomで十分なんてことはないな SU9300程度のパワーはモバイルでも欲しいな
>>96 低解像度の動画で満足できるならいいけどなw
動画扱うならHDDの容量や回線速度も重要だしな。
スペック低くていいことなんかない。
i7でネットや動画はなんかもったいない C2D 2GHzでネットも動画も軽くこなせられる 快適にというならば、最低2コアはほしい
>>99 俺も最低C2Dだな。それ以下は考えられない。
>>98 バラエティはともかくスポーツ観戦とかだと全然足りないよね
>>98 再生支援が入るとAthlonX2@800MHzでフルHDのH264のF1すら快適に再生できるんだが・・・
2.4GHzまで上がればネットは楽々だし、2000万画素の写真現像もこなすし。
正直動画編集とエンコ以外の用途だと、quadは居場所がないよな。
値段に押されてCeleronかAtom+再生支援に行っちゃうんじゃね?素人は。
そういうレベルのシンクライアントだとある程度のパワーが必要かもしれないね キー操作と画面表示だけの極まったシンクライアントが今後登場すればいいのに コア数増えた分、家庭内サーバー的に、強力なマシン一台に 簡素なシンクライアント家族分、とか
性能なんていらないという話はAtomじゃ不十分とか最低C2Dとかそんな 近視眼的な主張で済む問題ではない。あと数年もすればC2Dレベルの トランジスタ数はAtomサイズに収まる。ネットも動画も軽くこなせる ようになったその次には何が出来るようになるのか?それが問題だろ。 コア数が無駄に増え続けるばかりでいまだにそれが見えてこない。
牧野はサーバーとモバイルで2極化すると予測している キラーアプリが出てこないと当然そうなるだろうけど それで泣くのはハイエンド志向の自作erだけだろなw
ハイエンド・エンスーはXEONあるから無問題 メインストリーム・パフォーマンス帯を渡り歩く俺様が涙目
>>104 AtomがCore 2の性能に追いつく頃は、OS・その他アプリケーションがもっと高機能化して
重くなるから問題ない。
TDPとかクロック周波数見てたら別にi5のClarkdaleで良い気がしてきた
>>107 数年前までは高機能化がソフトウェアの価値だったけと、
半導体のフリーランチが食えなくなったので、
今は最適化が価値を生む。つまりどんどん軽くなる。
i5っていつ出るのかが問題なんだ
ヴィルトの法則的にはハードの高速化によりソフトの低速化が起こるとも考えられるけどね
>>109 ユーザーは最適化の度合いなんて気にしてないし
ISVにとって最適化"も"重要になるってだけでしょ
そうしなければ機能を増やせない(ハードウェアのリソースを活かせない)のだから
ソフトハード両面で業界再編は進むだろうけど
ユーザーの価値観に変化は訪れないだろう
何時だって使えるか、使えないか、だ
プロ、セミプロ用ツールとかじゃなく、大衆が使うアプリケーションには ノートレーニングに近い敷居の低さが必要だから、適正な機能の 数ってのがある。際限なく多機能にはならないわな 絶対に軽く作れない機能がどうしても搭載される必要があるか否か
今のAtomができる事といったらブラウザ閲覧程度だからな。 Intelも馬鹿じゃないからAtomの性能を大きくあげることが出来たとしても、 それをやらない可能性は十分にある。 あくまでローエンドという位置をキープし続けるだろう。
相対的という意味でのローエンドで 十分意味があるのさ
メインストリーム・パフォーマンス帯が生き残るにはAdobeのソフトを使う層と PCゲームをする層がどこまで踏ん張れるかだろうな
なるほど。そういった意味ではintelが頑張るべきはMoblinよりもハイエンド向けソフトウェアな気がする。
intelはAtomで大儲けできるが、それを作るネットブックメーカー(主に日本)が自爆するように出来てるよな。 ネットブックを多くの人に買ってもらうための薄利多売戦略なんて無理な話。 これからどんどん追い込まれていくだろうな。東芝、NEC、富士通、SONY
まあ今までの国内ノートはぼったくり過ぎだったから 天罰が下ったんでしょう。 しかしそれにしてもノート相場が急落しちゃったねえ。 ネットブックとか言って何とか従来のノートと カテゴリを分けようとしてるけど完全に無理があるな。
>>120 ネットブックに日本のメーカーが進出した時点で、この展開は分かりきっていたことだがなw
最近は大手にしろ本当一時のちょっとした利益に飛びついて後で失敗するんだよな。
日本のPC市場はもうダメかもしれんね。
>>121 お前の言い方だと出さない方が良かったとか言ってるアホに聞こえるが。
まあネットブックなど出したくなかったってのが本音だろうな。 でもしょうがないよねこればっかりは。 ASUSが初めてネットブック出してからあっという間に市場を形成したからな。 国内ベンダも出さざるおえんだろ。
低解像度と低スペックで出来る作業なんて限られてるから、 毎回毎回買い換えるなんて需要は期待できないだろうな。 OSをWin7にするとシングルコア+超低解像度という大きな制約が出来るしな。 本当に欲しい人には行きわたっただろうし、もうネットブック終了
でもなんか解像度の高いやつがSONYから出るらしいぜ。 OSもgoogleがLinuxディストリビューションを出すみたいだし。 各社しっかりこういう隙間を見逃さないよな。 ばれちゃうばれちゃう、windowsが無駄に重い事がばれちゃう。 atomで用が足りることがばれちゃう。
処理の重さもそうだが、管理コストの高さが大問題。
iPhoneの隆盛を見てるとAtomすらいらなくなるかもな ARMで十分だとばれる Chrome OSが出てトドメ
おっと今ごろ流れがすれ違いな事に気がついた。 すんません。
>>118 低価格化に対するIntelの回答はローエンドとハイエンドの性能差をどんどん広げていくって事だな。
シングルコア時代はローとハイで精々2倍程度の性能差だったのを
今後は10倍20倍40倍って感じに。
この業界、数で劣る重厚長大ハイエンドは、 軽薄短小の利を生かしたローエンドにいずれ性能でも負けて 駆逐される運命なのだぜ。 コアを増やしたハイエンドチップは、余ったTDPをオンチップメモリに回した ローエンドデュアルコア(のクラスタ)に価格性能比で負けると見た。 もちろん最初は「メモリ512MBなんて玩具」だとpgrされるんだろうが。
値段次第だよね、買える物しか買えないから 日本企業のプレミアムネットブックとは頭が沸いてるとしか思えん
でもさ、ネット目的でionプラットフォームぐらいのネットブック買って、 そのネットブックにgoogle提供のosがプリインストールされてるわけよ。 電源オンから6秒とかでyahooのページが開けたりするんだけど 初めて買ったユーザーは 「まあ、テレビもそうだし当たり前だよな」 って特に感動もしないと思うんだよね。で、 「俺もパソコンに慣れてきたしそろそろ大枚はたいて高級なwindowsにするか」 「ハードも新調しなくちゃな、憧れのハイパワーcorei7だぞ〜」 「これで今までより更にサクサクネットサーフィンできるぜえ!なんせ3倍は値段違うからな」 と期待して購入し、windwsを起動したら愕然とするだろうね。 起動が60秒以上とかもはや処理能力以前の問題だしってね。
本当にネットだけしかしないならそれでいいかもしれないがな。 ネットだけならw
犬厨ウザイから巣に帰れよw
朝から1匹ヘンなのが張り付いちゃってるなw
彼の言いたい事は 無意味に重たいosはハード買い替え需要を促進させるカンフル剤。 無駄に高い能力のcpuともたれ合いただれた関係を保ってきたが、 もうそろそろ騙しきれないなってことで宜しいかな?
重い重くないの話じゃない 汎用機と専用機の間に立ちふさがる壁がなくなる事は無いってだけ そりゃ何に使うかを限定してる専用機のオペレーションシステムなら家電と同じで当たり前 何に使うかはユーザーが定義しその都度要求するからそれに備えて様々なサービスを立ち上げるPCはどうあがいたって"起動"は早くならない この壁は永遠になくならない 仮にハードが進歩しても要求される仕事の範囲も負荷も上がる以上それに備えて立ち上がる必要がある ただ、工夫で壁の一部に勝手口を作って通り易くはしてる しかし壁があるという事実に変わりは無いし、そもそもその壁の向こう側にいるからこそ価値があるのが汎用機たるPCのスタンス 買換え需要を促すなんてのはその過程で付随してきた現象のひとつ
まぁ 頑張って
PC使ってやりたいことが何もない世代が台頭してきたら 高性能CPUもWindowsも終わる。 Core i7 、メモリ12GB、15000rpm SASディスク、 64bit Vista or 64bit Win7、ハイエンドグラボ・メモリ2GB こんなとんがった環境を必要とするのは、ハイエンドゲーム をしたいとか、Photoshopで高解像度画像を編集したいとかだろう。 そんなのはもうニッチだよ。 ほとんどの人は画像編集やらないしヘビーなゲームもやらない。 メールとブラウザ、たまにWordと年賀状ソフト。こんなんで 進歩が必要なのかな?
じゃあ君はAtomで満足してろよ 俺にはもっとCPUパワーが必要だ 具体的に言うと宇宙人探査にすごく必要だ
えっ 何それ怖い
>具体的に言うと宇宙人探査にすごく必要だ >具体的に言うと宇宙人探査にすごく必要だ >具体的に言うと宇宙人探査にすごく必要だ具体的に言うと宇宙人探査にすごく必要だ >宇宙人探査宇宙人探査宇宙人探査宇宙人探査宇宙人探査 >具体的に言うと宇宙人探査にすごく必要だ >宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人宇宙人 >具体的に言うと宇宙人探査にすごく必要だ
ハードの進歩は必要だろ。 たとえば、10年くらい前のゴトーの記事で、 「現状でPCの性能は十分〜」っていう記述があったが、 当時のCPUと言ったら、Atom以下のPentiumV数百MHz,メモリ64MBとか そういうレベル。 当時のまま性能が変わらなかったら、youtubeの再生すら厳しく、 一般PCで気軽に動画を見たり、多くのユーザーが動画を自分で 編集して投稿なんてことはできなかっただろう。 ネイティブよりもずっと効率が悪いJavaScriptを実行するWebアプリも かなり厳しく、ネトゲやFlashゲーも難しい。 最近のようつべのHD動画なんて、PentiumM 1.1GHz@Dothanですらまともに再生できないしw
ド素人をなめるなよ。 起動が遅いと何故かアイコンを連打する。 更に多重を起動待つという悪循環。 うちの親父がそれ。 だから、サクッとアプリが起動出来る程度のパワーは欲しい。
っGoogle OS
普通にLinuxベースなのに、Googleってだけでやたら期待しすぎてる奴がいるような 気がするんだが
情弱をなめるな
笠原がGoogleは広告で収益を得ているから最強とか言ってるが 雑誌とかTVのどこが最強なんだろう MSやIntelの方がよっぽど健全に思える
Google: Don't Be Evil 電通: 周囲を引きずり回せ、引きずるのと引きずられるのとでは、永い間に天地のひらきができる
クラウド型が一つの回答である事は間違いない。 今後のハイエンドはホスト側のpc刷新の時のみに必要とされていくのではないのかね? まあ、レイテンシとかもろもろの問題は確かに多いけどね。
>>148 そりゃ当たり前だろ。
潤沢な資金力がos維持なる定期的な更新の土台として必要不可欠だからな。
どこそこのフリーなディストリビューションとは期待感も安定感も全然違う。
特にgoogleは政治的な柵がない分pcユーザーの本能的な要求に対して
大胆に切り込んでいける。
その他関連企業への配慮が必要なマイクロソフトはタブーとなっている
要求には手を入れることが出来ないから処理が重いだけじゃなく、
フットワークも重い。無料化出来るアプリも有ろうかとは思うが
したくてもなかなか出来ない。
>>153 >どこそこのフリーなディストリビューションとは期待感も安定感も全然違う。
ユーザーはLinuxのディストリビューションなんて見ていないと思ふぞ。
なぜ$299のLinuxネットブックが、後発の$399のXPネットブックにほぼ駆逐されてしまったのか
考えると、普通のユーザーこそむしろWinアプリが必要なんじゃ。
>>151 Googleの「邪悪になるな」なんてウソっぱちもいいとこだけどね。
>>154 ネットも出来る地デジってあるだろ?
これから拡大して行くであろう本当の新規はあんなイメージで
そこにはlinuxもwindowsも無いんだよ。
ただ利便性のみがあるだけ。
はっきり言うけど、今多数のユーザーが望んでるのは圧倒的に
起動を速くして欲しいって事なんだよ!
屁理屈はいいからぱっとつけてぱっと作業できる様にしてから物言えや!?
まずはそれをしろや?って事。わかった?
>>150 広告を財源にしてるところは同じだけれど、
コンテンツの中身が違うのが大きいのにな。
テレビや雑誌は広告主の以降による恣意的な作品を作りにくいし、
一方的な押しつけ感が漂うけれど、Googleは情報操作はあくまで間接的じゃない?
広告主にとって都合が悪いサイトは検索にかからないけど、
ユーザーは能動的に検索してる気分になるから問題ない。
>>145 いやいや、人間ってのはね
リソースがあり余ってるときはもったいないお化けが卒倒するぐらい無駄遣いするし、
逼迫してるときは神業的なチューンで不可能を可能にすらしてしまうものなんだよ
Flash動画とかJSアプリとかVistaとかは前者
ゲームコンソールの末期の大作ソフトは後者
>>158 XPをPentium4 2.0GHz、512MB、オンボでネトゲー快適にやるチューン方法おしえてください。
PSO-BBのような旧世代のネトゲをやる
>>156 つ スリープ
数秒で起動するだけなら、パタンと閉じて、あけるだけ。
最近はゲーム機ですら、レジューム機能くらい付いてるぞw
さっきから熱く語ってる奴が居るが、 利便性や快適さを求めているのは誰でも分かってることで それを実現するための土台が大変なわけで 整備が進んでるWindowsが衰えないのは、そこに理由がある
クラウドに夢見てる人達は それを実現するのに必要なサーバーと回線の料金を計算してみな
あとセキュリティも考えないとな。 クラウドが一般的な企業レベルで当たり前のように使われるようになったら、 クラッカー達は利益のために徹底的に脆弱性をついて攻撃しまくるようになるだろうな。
SaaSとかクラウドとかw これまでもSIerに散々たかられてきたのにw またたかられるんですかw
166 :
Socket774 :2009/07/15(水) 22:34:33 ID:ACrwA0xI
>>140 PS2が出たころにアスキーの元麻布のコラムに
「日本のマスコミがゲーム機の性能に騒ぐのは、外資が多いPC産業に
嫉妬してるから」とかいう、記事があったな。
そして、その記事に中に日本人のPCスキルが先進国中で一番低いという
文章もあった。基本的に日本人はPC嫌い?
食らう度っていってみたいんだろw Web2.0の時と同じwww
そろそろマーケットによっては能力の過渡期に差し掛かっているんじゃ無かろうかね? ローエンドで足りる層がこの2〜3年で急増して来てるのは確かなんだよ。 潜在的なローエンド需要を実体化させたのは他でもないatomなんだけど そういった能力を欲しない市場が拡大するとハイエンドでのアドバンテージを ブランドイメージとして有効利用して来たintelのビジネス戦略としてまずいことは間違い無い。
PCよりケータイでネットもメールもするしぃ〜って感じか
そうそう。今の20代ってPC使えないらしいね。 「キーボードを使えない20代」が増えて、 謎のデジタルディバイドが発生しているらしいw
>>16 日本マスコミは日本自虐に偏ってるから鵜呑みにしない方が
フルキーボードで打つよりも携帯でメールの方が速く打てる人は
結構いそうだな
>Core MAは2010年も依然としてIntelデスクトップの主流 ワロタw
Nehalemがいらない子扱いされている件について
ビンボーくさ
pentium4からcore2への移行期もあったんだから Nehalemがそういう扱いなのも一緒でしょ sandybridgeに移行する時も同じ
Core2世代がSandyBridgeに一気に移行するのも大きいな 丁度3、4年だし買い換える人も多いだろう
やっぱりこれからはもうちょっと 省電力低発熱高効率に割り振った方が いいんじゃないんかね?
ピーキーなパワーよりもね。 世間の価値観が変わってきたと思うよ。
>>175 Nehalem4コアは、「PC用としては」余りいい出来ではないと認めたようなもんだな
Nehalemはもともとサーバ用途で実際IAサーバでは圧倒的なんだが、やはり自作板では厳しいか
折角のQPIが評価されないなんてちょっと勿体無いね。
1Wayでは何の価値もないんだから評価されるわけがない。
普及用のLynnfieldとHavendaleを当初予定通りに、 今年の頭に出せなかったんだから、仕方ないんjないの?
188 :
Socket774 :2009/07/16(木) 19:00:30 ID:CTJV2hN9
元気なNehalem-EP
まぁPCは実際Core2でまだまだ戦えるから、鯖方面で勝ちに行くのは正しいわな で、Socket939の微妙なアムドマシーンを抱えたヌルゲーマーの俺は、 「まぁ今買い換えるのはまだ早いよな」 →「Nehalemがゲーム向けでも強そうなら買い換えるか」 →「SandyBridgeが2010年らしいからあと一年頑張るか」 →「ここまで我慢して結局C2Dってのも癪だから2011年まで粘るか」 とズルズル来ている訳だが…
一生買い換えなくていいぞw 俺は、Gulftown→SandyBridge→IvyBridgeと遊ばせてもらう
IvyBridgeが出たら買い換えるわ
X58 R2EはGulftownに換装して、 サブはP45 M2F→P57R.O.G.でLynfield→Sandy Bridge→Ivy Bridgeと遊ぶ。
半導体とCPUの発展は最盛期を過ぎた。 思わず飛びつきたくなるような長足の進歩を遂げることはもうない。
Quadでも持てあますレベルだしな
もう性能過多だって書き込むと必ず 「昔の記事でもそんな事を書いてあったけど結局性能は上がり続け、皆は求めてきたじゃないか?」 ってのをソースと一緒に出してくる人いるけどさ、 もはやその時の状況とは全然違うと思うんだよね。 車も、ゲーム機もどんな分野も価値観の転換点というのがあると思うんだよ。 確かに処理が高速になるに越した事は無いと思う、また進歩を止めてはいけないと思うが 今までのように大衆が皆すべからく求めるモチベーションでは無いと思うんだ。 現にユーザーがここまで改良されればもう必要十分と判断された部品などはあるときパタッと 進化を止めて何年も刷新されることなく使われ続けたりするだろ? だから今後のCPUの処理速度の進化はもっと地味に行われていくと思うよ。 それを必要とする分野が狭まればそれなりな規模の扱いになるのは仕方ない事。 それよか処理能力はそのままにより小さく、より低発熱で、より省電力に、より低コストでワンチップに統合する という方向性の方が今後のCPU開発の方向性を大きく担っていくんじゃないのかな?
CPUの能力向上を促してきたものに、たとえばディスプレイのピクセル数増大があるが もはや大画面化は限界で(A3ノートなんてあり得ない)、高精彩化もニッチな需要しかない。 ピクセル数が変わらなければ、それをドライブするのに必要な能力も おのずと限られてくる。 新たな分野、たとえば音声認識・画像認識は膨大な計算需要を生み出しうるが、 ムーアの法則による低価格化なしでは、普及はしないだろう。
翻って、サーバは依然として有望だ。それこそ世界中の全てのラックを1チップに収めるまで 能力向上の需要は尽きることはあるまいて。
core maは今の時代に一つの結論を出したと俺は思う。
>>195 車と同じ経過をたどってるよね。
1990年、メルセデスがW140 Sクラスを出した。
山のような巨体。重さが2.3トンもあり、V8 5000cc
でも苦しく、V12 6000ccで余裕、リッター3Km。
当時のメルセデスは、このあまりにもアンチエコな車について
「ドイツ人の体格は年々大きくなっているんです。だから車も
大きくなるのが当たり前」と弁明していた。だが次期モデルでは
小さく軽くせざるを得なかった。
今はエコな車がステイタス。日産GTRなんて全然流行ってない。
CPUもいずれそうなるね。大半の人にとってエンコ性能やゲームの
フレームレートなんて全然関係ない。エコで静かで低発熱で
安価でシンプルで長寿命なら大歓迎、という風潮。
値段を外したのは意図的なの? コモディティ化は更に推し進める必要があると思うけど
プロセッサの進化を望むのはエンドユーザーではなく、 サービスを提供する側だ。 またソフトウェアの進化も忘れてはならない。
どちらかというと、今必要とされてるのはストレージやWAN方面の速度や容量や帯域 じゃねーかな。この辺は今でも、進歩すればするだけ用途が開拓できる分野だろ。 で、それらにドライブされてプロセッサへの要求も地味に上がっていくのかな、とか。
車はエコ以外にもいくつか大転換はあったな。 日本では安全が全く売上に繋がらない時代があったし セダン等のオーソドックスな”クルマの形”しか売れない時代もあった PCもエコ以外に変化する行き先はいくつかあるんだろうと思う
>204のような頃は、いわゆるクルマに入れ込んでいる層は 加速や最高速、ハンドリングなどを至上としてて、安全や SUV(昔風に言えばどうみても「ライトバン」としてばかにされるスタイル)の 利便性は鼻で笑ってた。 PCも今のヘビーユーザがえ〜って思うような方向へ行く事になるかもね
SUVじゃなくてミニバンかな? 最近の用語に付いて行ってないな
まとめると ゲームはこれ以上、革新的な進歩はしないって事か 技術的荒廃は現実の経済や政治の荒廃につながるから気をつけろ
208 :
Socket774 :2009/07/17(金) 16:40:34 ID:IQ3i6yF1
atomどころかarm(携帯)で十分なんて人も沢山いるからな…
>>208 性能はそこらに転がっているブレードと一緒だってば。
まぁスパコンの末期の一形態だわな…
ハイエンドの性能向上は年々鈍化してくが ローエンドの伸び代はまだまだあるからな。 逆に言えば他の互換機ベンダはチャンスだろ。 ピーク性能で勝てなくても独自のアイデアで生き残る選択肢が増える。 ドサクサに紛れて自社のプラットフォームを広げちまう事も やり方次第じゃ出来る。
効率経営のデルやHPの勝利ですね、わかります。
>>212 しかしそのDELLも、独自設計が肝のノートPCでは遅れをとってる
昨日からのスレ違いな話題をいつまで続けるつもり? 夢を見ていた昔の自分を見るようだ。 実現の遅さや形骸化に失望するがいい。
ゴールは自動運転や音声指示による運転だからまだまだ演算パワーが要るよ
わかりました、マイケル
>>196 ディスプレイがワイド化して、逆に画素数減ってるような希ガス
デコーダなんぞオフロードする必要があるとは思えないのだが
iPhoneよりはマシ
iPhone3GSは結構いいぞ Macは死んでもいらんけどな
面白いという点ではMacも面白いよ。 常時使うマシーンとしては謎だけど。
spotlightだけは良い。あれ使った後だとWinの検索はどれもこれも糞ばっかだ。
ネットブック批判とか、PCをコモディティ化されると アップルのぼったくり商売がうまく回らなくなるから危機感煽られるんだろ 利益率が悪くなったらMac止めるんじゃねーの?
Macなんぞいいかげんやめていいと思うんだがな まだ印刷屋なんかはWindowsじゃ駄目な世界なの?
>>227 代表的なソフトであるPhotoshopについてはジワジワWindowsに移ってきているから
しばらくすればMAC一極集中じゃなくなると思う
逆に音楽製作はMACの存在感が増しているようだ
ちなみにIEEE1394はMACでも標準搭載数が減ってきていてUSBに完全移行しそうだ
>>228 実は音楽製作はWinのプロが激増してる。
Macじゃないといけないのは商業スタジオとエンジニアだけで、アーティストの作曲道具としてはWinが急激に台頭してる。
特に若手になるほどWin使ってるやつが多い。
10年ぐらい前はMacがほぼ100%な分野だったんで、いまもMacのプロはたくさん居るし、居なくなる事も無いけどね。
つまり、若手(=貧乏人)がやむにやまれずWin(=安物)に走った結果、負のスパイラルに 落ち入って、その後日の当たらないままになる訳ですね。
オレは印刷屋というかデザだが adobe用クアドラ+CS4でサクサクだわ MACなんぞにもどれんわw 版下屋とかあの辺はそう簡単に WINに移行することはないだろうな
>>230 いや、若手だけじゃなくベテランの有名どころもWin使ってるよ。
AphexTwin・スクエアプッシャー・InfectedMushroom・Iris・Aquasky・At Jazz
LaidbackLuke・Fourtet・SlipKnot・Pendulum・SecretCinema・GialTalkなど。
各ジャンルの有名どころがWin使って普通にプロとしての活動してる状況になってる。
日本人でも中田ヤスタカがWinだね。砂原もWin使い始めたってこの間のインタビューで言ってた。
>つまり、若手(=貧乏人)がやむにやまれずWin(=安物)に走った結果
その安物に当てはまるのはセレロンマシンとフリーソフトで音楽始めたPolarだな。
ただPolarの場合その安物使ってプロになれたってインタビューで発言してるけどw
秋山澪……いやなんでもない
IEEE1394がWINDOWSでも安定する環境ができたんで、MACとはおさらばした
>>230 秋山澪吹いた。てかアニメの影響でAKGのヘッドホンが売れる状況にも吹いた。
今の状況は原作を読んでた人間はポカーン状態だ。ああ、これ以上は板違だ。ゴエゴエ
>>232 AMDは専用設計できないからか、工場無いから空きライン埋める意味もないからか、
理由はわからないけど。
駄レスやけど、MacをMACと書かれるとmedia access controlかと思った
おまえらC2Q9550sとPhenomU945(95W版)ならどっち買う?
後者だなぁ 個人的にメモコン内臓はデカい
i7買って電圧下げる
>>238 AthlonUX4待ちの俺。
L3が無くなったことによるパフォーマンスダウンと消費電力低下を天秤にかけたい。
PhenomUX2とAthlonUX2は後者のほうが消費電力の下がり幅が大きかったが。
たしかx4にするにあたって、L3無ければNGな構造に変えたんじゃなかったっけ? もう暫くは構成変えたの出て来ないだろうなあ
>>226 というか、ネットブックの真髄はPCをクライアント端末化する事だから、それで
収益源を奪われるのはMACもMSと一緒だからだろ。
>>231 年寄りどもは若い頃から使ってた環境を、簡単には変えられないからな。変えた
途端に使えなくなるし。
>>243 若くても、WindowsではなくMacを常用しろと言われたら発狂する。
Windowsの代わりになる物がMacに一通りそろってるわけでもないし。
テキストエディタ一つとっても、代わりになる物に出会えるかどうか…
(気に入った物があっても、それが「代わり」になるとは限らないし)
なんでそんなMacを毛嫌いするんだかw ほんとは使ったこともないんだろ?w
メリットが無い
会社に数台あるから仕方なく面倒みているが、はっきりいって邪魔。 個人的に家で使うのならOSは別にいいけど、スペック面でノーだな。
スペック面でノー ってw
core2が入ってるならまだ良い。 今時G4@900MHzとか使わされてみろ。 Pentium!!!850MHzよりチンタラ動くんだぜ。フォトショすらな。
ジサカーがビンボなのがイカンのよ。 真のマカーは、新型が出たら最高スペックのに常に買い換えるもんだ。 というか、マクの中古相場を見ればわかるが実は買い換えには、そんなに 大金はいらんのよ。 その点は、日本企業でマクを使う場合も悲惨だ。 予算や減価償却のせいでままならんからな。
せっかくWindowsで落ち着いたのに今更Macとかイラネ
Macを毛嫌いするも何も、使うメリットが分からんだけのことだよなぁ。 Unixベースですよ、と言われても、それならUbuntuでもやるかGoogleのアレでも待った 方が面白い。そっちの方が開けて活発だし、ハードの選択肢も何百倍も豊富だし。 MSの対抗馬が欲しいって話も、Linux勢で十分間に合ってる。Intelの対抗馬という面では 既に軍門に下ってる訳だし、PCの対抗馬なんて元々要らない。独裁者が全て振り回す世界 じゃないから。逆にMac互換機とか参入したメーカーは悲惨だったよな、Appleの心一つで 一方的にライセンス取り消されて全製品潰されて。 Windowsも走りますよ、と言われても、むしろPC系OSはみんな普通にデュアルブート可。 普通の人にとってMacは罠でしょう、どう考えても。毛嫌いとか以前に、普通に地雷。 Macでしか使えない、またはWin版が糞すぎるようなソフトが必要なら、Macを買うべき。 でもそれってどのソフト?
iPhone用のソフトを作りたいという人はMacかな 少数だとは思うけど
一切ソフトも何も持って無くて白紙状態ならMacもいいかな。 かなり昔はSPARCstationをパソコン代わりに使ってたし Win95/98時代のWindowsはガン無視してFreeBSD使ってたから UNIXでも別にかまわない。今でもサーバはFreeBSDで、 キャラクタ画面のみ。ネット徘徊専用サブ機はUbuntuだしな。 現実は、すでにWindows対応ソフトにかなりカネを使ってしまったので 今更ソフト買い直ししてまでMacに移行する理由がない。作りの良い ハードが必要なら、HPのワークステーションZ800シリーズにする。 Adobe CS4 Web/DesignPremiumの複数ライセンス買い直し? プラットフォーム間の移動はアップグレード対象じゃなく新規購入 になるのでDesignPremiumで26万円だっけ。冗談じゃないな。
逆に言えば、Macのソフトに既に金突っ込みまくってる人は、Macを使い続ける理由が あるな。やっちまった感は否めないけど。
必死になってMacを買えない理由か。
「買えない」は欲しい人が言う言葉。 欲しくないのに「買えない」はないんぢゃない? 携帯持ってても電話にしか使ってない人に 最新高機能携帯やiPhoneを勧めたところで興味持たないし 欲しがらない。そういう人が「買えなくて悔しい」 思いをしているわけではない。興味がないものは 存在していないのと一緒。
ただで手に入るなら、欲しいという友達に売るためにMac欲しいわ。。
Nehalem買えないAMDな人の理屈みたいなもんかな。 金がなくて買えないなら黙ってればいいのに、金持ち批判に置き換えて吠える俺イケてるみたいな。 二本に不法滞在してる半島人がよく使う理屈だ。
ha?
hi?
本島はMac欲しいんだろ?、的な上から目線が信者には良く似合う
ジサカーがHPのZシリーズとか持ち出してくるとか、酸っぱさ全開名和家だが。
まぁXEONで組むよりMac Proのが筐体も格好良くてよっぽどお買い得だしね 興味無いという割にやたらMacを敵視してる一部の人は買えないってだけなんでしょ 次世代CPUスレっても新アーキテクチャの普及価格帯モデル目当てが大半で、XEONに手を出すなんて人は一握りだろうし
個人的にはLogicをWinでまただしてくれればMacは使わないだろぉなぁ
>>233 SquarepusherはTAICOCLUBで来日した時Macのノート使ってたけどな。
まぁLiveでVAIOのノート使ってた時があるのも知ってるけど。
ソレはともかく、その中でWinも場合によって使ったってダケではなく、
MacやめましたとかMacも使うけどWinをメインに使ってますってアーティストはどんだけいんのさ?
>>266 次世代関係ないじゃん。
ArrandaleとかGulftownが見えてこないと話題もないかも、だけど。
Core i9なるものも出すみたいだけど iの後の数字って何から来ているの? 教えて!エロい人!
多分アラビアから
よくあるグレード分けの数字の振り方。 3,5,7,9が代表的で、もちろん大きい数字の方が上位グレード。
>>270 サンクス
数字でのグレード別けで代表的なのってあるのね
i7はLyn等の1156ソケットになって 1366はi9〜Xeon DP まで移されるだけだから ネーミング商法ととらえることもできるわな
iの後の数字が物理コアの数とかだったら判りやすいのにね。。。
i5にも4コアあんだぞw どっちにせよわかりにくそうだ
i3のGPUでどのくらいの能力があるのかな? ちょっと期待してしまう
いつもとおり外部GPUが必要なくらいでは。
GPUがチップセットのダイからCPUのダイに移動しただけ
ぎしあん記念保守
さんでぃたんの続報ホシス
>>281 長文も含めて興味深く読んでたけど
どーしちゃったんだろうね、真っ赤な顔したこの人
>Nehalemが極端に悪いように見えるのはアンチの勝手な幻想
>Sandy Bridgeに過度の期待を今からするのもアンチの勝手な幻想
そのとおりじゃあないか
自分と微塵でも異なる意見を持つ者は敵・アンチとみなす純粋な○×△イさんですよ^^
そこまで言っちゃかわいそうだし全部が間違ってるわけではなかったけど なぜかアンチ扱いされたのと、あの内容でノートのことについてを語ってたってのは理解できなかった
○×△イかどうかはともかく、ちょっち頭の中がアレな人やね
ID変えて自己擁護してるように見えるとなると いよいよ末期だねえ
まあそう言わず暖かく観察していきましょうよ^^
デスクCPUの方の知識ありそうだからこっちくればいいのになと 誘導のつもりだったんですが
見えない敵と戦い続けてる状態で2ちゃんやってる感じがする >というわけで、ここはもうアンチNehalem君達に任せたw ちゃんと読んでいればID:sLND35lWやその他名無しも含めて 明確な「アンチNehalem君」なんてほとんどいないことがわかるのに
何だ、i7ノート(笑)まだいたのかよ…
i7ノート(笑)は死なん永遠に不滅だ
Sandy BridgeはGPUを統合したとはいえあのダイサイズで 一気に普及価格帯に落としてくるのかねえ もうインテルのターンは終わっていいころじゃないかw
Sandy Bridgeはたしかダイ面積225mm^2だったっけ
>>295 の比率見てるだけでも、コストに相当の自信があるとしか思えないな
4コアで225mm^2だから、2コアなら150mm^2くらいにはなるんじゃね。 それならClarkdaleのCPU(70mm^2?)+GPU(110mm^2?)より小さいし。
Intelは昔から低コスト化に定評があるが低価格化には定評が無い(笑) $100以下で売る製品に200sqmm以上のダイを用いたりはしない 必ず2コア+GPUの製品が存在する
i7ノートって大きさ的にノートじゃなく事典になるんじゃね?
開発が下から上からかの違いだろ
ノート用の非力なプラットフォームなんかどうでもいいから LGA1567をはやくデスクトップに持ってきて欲しい いつまで3chメモリでがまんさせるきですかintelさん
おまえホントにそんなメモリ使ってるのかと
>>300 今の情報集めてる感じだと、余り数は出てこないんじゃないかな、Core i7ノートは
i7 2Ghzを4コア駆動させるくらいなら、現行のCore2Duo 3.16Ghzのほうが速く回る局面結構出るだろうし
現行のCore2Quadでつないで、Arrandaleの高クロック版に繋ぐほうがノートPC的には
熱対策的にも性能的にも最適解なのかもしれない
まあ、ノート用クワッドコアの一般化に関しては、Sandy Bridgeまで待つしかない ってのはもう規定路線なかんじはするな ただ、現状のデスクトップ用SandyのTDPとクロックを見てる限りでは ノート用もそれほど変わらないクロック、3Ghzで出てきそうな予感はする
といわれてる程、Nehalemノートは酷そうでないわけだが。 少なくともCore 2を買う理由はArrandaleがでたらほとんど無くなるだろうな。 Arrandale → 2コア Sandy Bridgeとかの方が電力バランスからいくとウマーかと。 両方SMTのおかげで4スレッドいけるし、ノートでQuadコアははっきり言って無駄だと思う。
ノートだけじゃないだろう
ハイエンドノートはハイエンドデスクトップ以上にニッチだろう
ハイエンドといいながらハイエンドさ加減が微妙なんだよ。 特定タスクでしかデュアルとの違いがわからないという。
>>310 "発売コアの中"だとそうなるが"ノートPCの中"で考えたらハイエンドじゃね?
>>307 まあ、32nm化で結果としてNehalemノートはCore2よりも進歩することには成功したわけだが
そういう意味では買いではある
ただ、1年後のSandyの出来が気になるのも事実なわけで
案外短命かもしれない
>>309 そのニッチなクワッドコアノートをメインストリームにまで持って生きたい、
ってのがIntelの希望だったはず
でも定格1.73〜2Ghzであえなく撃沈…Sandyまで持ち越しに
Turbo Boostしらないのか? これからのCPUはどんどんTurbo Boostに依存してくる。
>>313 i7ノート(笑)をi7ノート(笑)と見抜けない人に次世代スレは難しい
Nehalemはターボブーストの上限がモデルナンバーの決めてになってるのをi7ノート(笑)は知らない。
誰と戦ってんの
Turboboostでいいなら、そもそもクワッドの存在理由が無い 最初からArrandale 3.06Ghzにしといたほうが低消費電力で高性能になる。32nmだしな
Ja-Ja-
イスラエルチームがターボモードを全力で推進してる意味がいまだに分からん。 イスラエル自身が手掛けるSandyBridgeなら少しは意義も見えてくるんだろうか? 単体アプリが複数のスレッドに負荷を分散するようにならない限り、PC向けには デュアルコアで十分って時代が続くだろうけど、マルチスレッドのコーディングは 難易度が本当に一気に跳ね上がるから、アプリの対応はごく一部でしか進まない 状況が続きそうだしなぁ… まぁ、シングルスレッド性能の高いCPUだって、ごく一部のアプリでしか意味の 無い物ではあるんだが。
>>319 > マルチスレッドのコーディングは難易度が本当に一気に跳ね上がるから
ちょっとマルチスレッドプログラミングに大して過大な評価をし過ぎてると思う。
ファイルコピー中にプログレスバーを動かすのも、マルチスレッドでやれば
とっても簡単だよ。
同一リソースに対して変更を加える動作に時系列が絡む場合だけ、難易度が
一気に跳ね上がるだけだよ。
> まぁ、シングルスレッド性能の高いCPUだって、ごく一部のアプリでしか意味の
> 無い物ではあるんだが。
これは逆だね。どんなアプリ/システムであろうと「以前より速く実行できる」事は
もの凄く意味がある事だと思う。
MTなコードを「正しく」かつ「性能を落とさずに」書く苦労を知っている人間は MTの方が簡単などとは口が割けてもいわない。 > ファイルコピー中にプログレスバーを動かす こんな簡単なコードでも、落とし穴はいっぱいある。 共有される変数は適切に排他制御されているか。ライブラリはMT-Safeか。スレッドの中断は 正しく処理されるか。処理系のコンパイルオプションはMT用に正しく設定されているか。 単純なカバレッジテストではコードの妥当性をほとんど検証できない。 一見正しく動く(そしてたまに正しくない)コードがいとも容易く出来あがる。 まあ、スレッドは便利で不可欠な道具なのだが、決して簡単ではない。 もし簡単だと感じるなら、自分の書いた排他制御が「全ての」ケースで正しく動くか、 もう一度念入りに見直してみると、新たな発見があるかもしれない。
そう、だから過大評価だと言ってるんだよ。 君が言ってる事は「マルチスレッドなら当然かくあるべき」項目ばかりであって シングルスレッドな考え方のままでマルチスレッドを考えちゃいけないよって 事しか言ってないでしょ? 「マルチスレッドの考え方」にシフトすれば簡単に解決するよ。
まんま絵を描ける人間とそうでない人間の会話だな
頭のいいうっかりサン。 出来たコードにバグがあって趣味レベル >320 慎重な人 >321 ま、適当に書いてなんとなく動くものは簡単に出来るけど、 しっかりしたものにするのにはそれなりに労力がかかるだろね。 意味も無くMT使いたがるのはアフォだけど。w
>>320 共有リソースを取り扱わないような事例は、マルチコアのありがたさもほとんど無いよ。
ていうかぶっちゃけプログレスバーかよトンチンカン杉ww
もっと負荷の掛かる話をしてるんだよ。じゃなきゃシングルコア+TSSで十分だろ?
プログレスバー程度の負荷はカスだから、要求されるのはデュアル止まりだろう。三つ
以上の数のフルスピードのコアがハード的にあっても、バケットを埋め切るのは難しい。
シングルコアが微妙なのは、要するに簡単にバケットが埋まっちまうからだよ。デュアル
ですら簡単には埋まらなくなるのに、三つも要るの?って話をしてる。
で、どんなアプリでも速い方が、ってのも無い。速い方が有り難いアプリはまだまだ
多いっちゃ多いんだけど、いわゆる一般人のお客さんなんかは、速いCPUのマシンを
入れてもピンと来ない様子の人が多いというか、俺周囲のケースだと10%もいない。
「速くなった」と言われるのって、メモリ不足を解消した時くらいなんだよな。
要は、三本以上は別に嬉しくもない、って時代が当分続くんだろうな、と。
俺的にはむしろ、せめてデュアルが最低限、という世界になってくれた方が楽になるが。
割とシングル切り捨てて書いてるし。
make -j17とかやりたいんだよおおおおお
シングルでいっぱいいっぱいでデュアルで余裕で余るとは・・・w シングルスレッドいっぱいいっぱいまで使うアプリケーションは腐るほどあるんだから、 残り1スレッドでシステム〜別のアプリケーションを賄うより2スレッド、3スレッドあったほうが 遥かにOSは快適に動くわな。
>>329 ああ、やっぱり分かってないんだね。
有り難味がないとか、負荷が掛かるとか、その考え方自体がシングルスレッド的なんだよ。
もちろん、プログレスバーなんぞはカスだけど、そこには君がくどくどと書いたように
マルチスレッドの肝がすべて入ってる。
多分、君に色々な事が見えていない一番の原因は「作り手の見方」しかできないから
じゃないかな?
それを端的に表しているのがマルチスレッドが「難しい」とか、三本以上は別に「嬉しくも
ない」って辺りだろうね。
君がぶっちゃけたようにこちらもぶっちゃければ、使い手はどんなからくりでそれが実現
されているかは問わないもんなんだよ。例えば(君に理解できるような例えができるか
どうか不安だけど)、100km先に1時間で到着したい人が求めるのは1000馬力の車という
要件ではなく「少なくとも時速100kmで走行可能な車」なんだよ。
>>331 残りの負荷は大抵ほぼカスみたいなもんだから、残り1スレッドのバケットも埋まらない。
CPU100%にするアプリが二本稼働する時はコア三つあった方が軽いが、そんな状況は
一般的なクライアントPCでは稀だから、トランジスタのトレードオフが見合わない。
つーか真面目に書いても徒労な気がしてきたな。
俺はシングルvsデュアルでは最初からずっとデュアル派だったが、デュアルvsそれ以上
では現状だと当分デュアルが最適と踏んでる。普段使ってても二つは滅多に埋まらない。
エンコとかの重たいマルチスレッド対応アプリを使うなら全く違う話になるが。
>>333 お前の環境じゃよっぽどCPUリソースを使わない作業をしてるんだな。
ならお前は永遠にデュアルだけ買ってればいいじゃないか。
CPUリソースを使い切ってしまえば動作は遅くなるし、少なからずユーザーは不満を感じる。
CPUリソースが使い切れないほどあれば動作はいつまでも快適だ。
使い切って重くなってしまう糞CPUと、使い切らずっと快適なCPUの差だな。
>>332 何の話がしたいんだか。
ユーザーにとっては、シングルスレッド性能の高いデュアルコアがあればそれでいい
という状況が続くだろう、って話をしてるんだが。
まともに「マルチスレッド対応だから軽い」というコードはそうそう増えない。だから、
軽くならないなら「ユーザーにとって」コアが増える嬉しさは無い。シングルスレッド
性能が増加する方が若干マシ。こっちは一応確実に速くなるし。
「マルチスレッドで楽に組めました」なんてのはユーザーにはどうでもいいし、大体
プログレスバーなんて、オンデマンドでスレッド立ち上げても構わない程度の糞粗い
分散処理だろ。そういうどうでもいいマルチスレッディングの話はしてないよ。2コア
程度で余るだろうし。
スレッド最初に立ち上げっぱなしにして、通信しながら分散処理して、終了時に正しい
順序でリソース解放させていくだけでも、慣れるまでは難易度がシングルスレッドの
コードより遙かに高い。しかもパフォーマンス出そうとすると際限なく難しくなる。
だからわざわざ手を出す奴は少ない。
プログレスバーの中にはもしかしたら肝が全て入っているかもしれないが、面倒な部分
は隠蔽されているから意味が無い。
4コアあるけど使ってない時はターボモード、っていう設計をする意義も分からない
ではないが、2コアでも時分割してるんだからそっちの方がいいだろ、と。
というか、4コア擁護しようとして、まともなマルチスレッドのコードを書いたことの
無い奴が無理に背伸びしてるように見えるんだけど。ぶっちゃけ。
要はOfficeやPhotoshopや洋ゲーのマルチスレッド化がガンガン進められるか 難しくてなかなか進まないか ほとんどの問題はそこだ エンコや3Dレンダリングみたいな恩恵直撃アプリは既に相当進んだからな
>>334 別に永遠には使わないが、当分はデュアルで行くだろうな俺は。一般人の用途でも
デュアルで十分だろうと思う。Intelあたりは困るんだろうが。
>>336 既にというかだいぶマルチスレッド化されてるな。
圧縮/解凍においてもデュアルとクアッドじゃ全然性能違うしな。
WinRAR Core i7 920 47秒 Core 2 Duo 90秒 これだけの差があるのに。 デュアルで食い尽くさないとか性能はエンコだけでしか差がないとかただの馬鹿なんだろうな。
i7買えない、買わない理由を何とかこじつけたいだけだろ。
>>335 やっぱり「作り手の論理」それも極めて低いスキルしか持たない作り手の論理だね。
君は、ことごとく「難しい」から「わざわざ手を出す奴は少ない」という結論づけをして
いるけど、理由が間違ってる、難しいのではなく「面倒」だから手を出さないんだよ。
君が細々と指摘しているように「完璧」なマルチスレッドプログラミングには非常な
手間が掛かる、従って与えられた時間的リソースでは引き合わない事も多々ある。
しかし、それは時間的な困難さであってプログラミング自体の難しさではない。
理想IPCを実現する方法を思いついたぜ 全通りの処理を投機実行すればいいんだよ
投機実行でのメモリレイテンシ隠蔽は コアの電力効率が行き詰ったら手をつけそうな気がする
投機実行というか投機スレッドのことなんだろうけどそれって電力効率悪そうじゃね SunのRockも結局ポシャったしなあ
夏だなぁ
346 :
Socket774 :2009/08/10(月) 19:09:43 ID:ZmvhAaZe
で、リンフィールドはいつ発売されんだよ?
来月上旬。 SandyBridgeは来年末だっけ? 今からお金溜めておくかな。
つか頼むから少しは Intelの次世代CPUについて語ってくれないか? オメーら。
そろそろSandy Bridge専用スレが欲しいところ
結局は電力と熱を根本的に解決しないと性能伸びないよってことじゃないか もうエアコンみたいにPC用室外機とPC用コンセントをつくっちまおうぜ
今まで手元で行っていた処理を 実行効率がよく管理もしやすいデータセンタ側に移していくことになるかと。
>>341 面倒か難しいかは言葉尻だろ
利用者にとっては「ソフトの対応がろくに進まない」ということに変わりは無い
でも、4コアの対応って結構進んでるんだなスゲーな
でかいファイルの圧縮解凍が43秒も縮まるなんて、頻繁に一分オーバーの圧縮解凍を
する奴には4コアお勧めだな
CPU屋は必死に舵取りしてるが、今の4コアは活用が全然進んでいないだろ
デュアルの2倍のシリコン使って「圧縮速くなります」じゃ需要も薄い。 コンパイルは速くなるけどリンク時間は変わらない、とかな。
>>350 ノートとデスクトップでは放熱の条件は根本的に違うからな
現行の45nmとノート筐体ではクワッドコアフルロードさせたら放熱限界超えてしまうみたいね
だから1.73・2Ghzまでしかクロック出せないと
はぁ?
ていうかQuadの最高は2.53GHzなんだけど・・・
ふと思ったんだが、 SSDがPCIe接続で1.5GBとか出してるのを見ると、 SSDもDDRメモリみたいに、CPUかノースブリッジにSSDコントローラ載せて SSDもマザボに差すみたいにする必要があるんじゃないだろうか? DDR3-1333の10.6GB/sには全然勝てないけど、 近いうちにSSDでも5GBぐらいは出るような予感。
個人的には 90nmで2コア 65nmで4コア 45nmで8コア 32nmで16コア って2年で倍に倍にって増えて行くかと思ったら ペースが落ちて来たと言うか進化が止まったのが残念だ
むしろいつか必ずほとんど進歩が止まる時が来るだろうと思ってるから、その時に どうなるんだろうと思ってる
Lynnfieldの2.8Gが良いかなと思ったんだけど、Lynnfield自体がすぐに消える運命なの?
>>361 そのときはそのときで、
高クロック周波数競争→効率の良いμアーキ+マルチコア
みたいな発想の転換があるだろうさ
むしろ冷却が悪いんだ!とか言って開き直って欲しい
>>359 そういうメモリの特性そのものをインターフェースに出す様な規格は、大抵長続き
しなかったし、相性問題も出易いからムリポ。
数多のメモリーカードの中で、SDカードだけが生き残ってきた理由を考えれば参考
になるかと。
>>365 今はSSDの市場は出来始めたばっかりで相性問題とかあるだろうけど、
でもこれからのPCのパフォーマンスを上げようと考えたときに、
今までずっとボトルネックとなっていたディスクを
SSDの広帯域接続で一気に解消できるんだから、
もうPC業界の進む道はそれしかないと思うんだけど、どうよ?
Braidwood ONFI(Open NAND Flash Interface)
大容量SSDは多数チップに並列アクセスするから速いのであって Netbookで使うような、HDDよりもさらに小容量低価格なストレージとしてのSSDは あんまり速くはならないよ。
>>367 情報あり。
まー、こんな素人が思いつくようなこと、とっくにIntelは考えてるよね。
今後の伸びに期待。
>>368 それは分かってるけど、
ノースブリッジに4チャンネルとかのONFIコントローラとRAIDを積んで、
それで並列アクセスしたら、1.6GBになるね。
PCIeのSSDはすごい高いけど、チップセットに搭載して量産したら、
1万円ぐらいの価格にできないんだろうか?
それにNANDフラッシュの32GB=5000円ぐらい?を追加しても、
大したコストアップにはならないから、
数年以内には実現しようと思えば出来そうな気がするけど。
× それで並列アクセスしたら、1.6GBになるね。 ○ それで並列アクセスしたら、1.6GB/secになるね。 × チップセットに搭載して量産したら、 ○ コントローラとRAIDをチップセットに搭載して量産したら、
将来的にはBrainwoodの高速版が搭載されて、HDD、従来型のSSD以外の ストレージとして使われると思うけど、CPUには載るとしても、かなり先の話だろうなー。 1.6GB/sってのもインターフェイスが1ch辺り400MB/sに高速化されるからってことだろうけど、 メインメモリと同じで、NAND自体はそんな高速化しないので、ベンチでもそんな数字出ないと思うよ。
ストレージのボトルネックはIntelが一発目のSSDであらかた全面解決しちゃったからSATAで十分 ランダムライト(&リード)が大問題だったのであってね、Trimもいらんくなっちゃったw
>>367 NANDフラッシュはどうせ微細化の頭打ちが見えてるし、今更汎用インターフェースに
してもあまり意味が無いと思う。
Intelが強力に推し進めてチプセト標準搭載になんとかなったWiMAXは、元々標準規格
が有ったお陰だし、Intelターボメモリなんぞ既にゾンビ状態だ。
SSDの当面の進化形はPCIeカード型だろうね。PCIe直結タイプのコントローラが出来れば
チップ価格は大して違わずにすむから、筐体やらコネクタやらでコストアップしそうな
HDD筐体形式じゃなくて、拡張カード型の方が製造コスト&組み付けコストも安いし。
>>373 あと数年経って、SSDの競争が激しくなって低価格化が進んだ場合、
もう起動ディスクにはHDDじゃなくSSD搭載するのがデフォになるんじゃない?
それくらいまでSSDが普及したら、
マザボにONFI 3.0+RAIDが載ってる方が売れるようになるはず。
その方がSATA接続するよりも高速にSSDにアクセスできるんだから。
PCIeでもいいかもだけど、貴重なPCIEx16を使っちゃうのが問題になりそう。
ONFIって多値NANDとかも対象にしてるのかな? そうでないと容量対コストでSSDやPCIeカードに対抗しにくそうだが。 あといい加減PCIスロットは無しにして、PCIex4、PCIex8あたりが普通になってくれば スロットの問題は解決するジャロ。
>>375 もちろん対応している。というか対応してなかったら、intelのSSDの80GBがONFI1.0対応NANDを
使っているというのがうそになる。
SSDは内部で8ch、10chと束ねているし、intelだとONFI対応品が使われるだろうから、
チップセットのSSDコントローラで4枚くらい並列化しても、そのときのSSDには、
ベンチのシーケンシャルくらいでしか勝てないんじゃないだろうか?
ONFIはインターフェイスの標準化で、NANDを大幅に高速化させるわけでもないし。
Braidwoodは上限16MBのキャッシュにすぎんのだが…
>>376 マザボに直でさせば
チップセット内SATAコントローラ→SATA→RAID→ONFI→NAND Flash
を
チップセット内RAID兼ONFI→NAND Flash
と短縮できるわけだから、レイテンシ短縮にならないかな−?
あとSATAだと3.0でも600MB/sしか出せないから、帯域がすぐ不足しない?
>>378 400MB/sのONFIの規格に沿えば、400MB/sに近い数字がコンスタントに出るという前提ならな。
残念ながらBraidwoodは・・・
ONFIは後出しなんだからメリット無い訳がないかと
ちなみに天野氏、最後の最後に「Lynnfieldの発表の時、“たぶん”お詫びすることがひとつあります」と謎の予告。
>>382 CPUのパッケージを痛い萌えキャラにしちゃいました(テヘ
だったりしてw
そんな事したら神すぎるwww
--------------------------------------------- | | | -‐ '´ ̄ ̄`ヽ、 ..| | / /" `ヽ ヽ \ | | //, '/ ヽハ 、 ヽ | | 〃 {_{ リ| l.│ i| に | | レ!小lノ `ヽ 从 |、i| ょ | | ヽ|l ● ● | .|ノ│ ろ | | |ヘ⊃ 、_,、_,⊂⊃j | , |. l | | | /⌒l,、 __, イァト |/ | ん | |. | / /::|三/::// ヽ | | | | | l ヾ∨:::/ ヒ::::彡, | | | | | | | Core i7 QUADCORE | | 870 DESKTOP | | inside | ----------------------------------------------
滅茶苦茶売れそう!
ネハは32nmから なんていわれてたからなぁw
TDP73Wで3.46GHzかよ
32nmが優秀なのはいうまでもないな。
>>388 いいんじゃね。総合演算性能を求める人はマルチスレッド化してるアプリが主なんだろうし、
そうなると4コアと2コアの性能は埋められないからちゃんと住み分けできてる。
遅レスだがそんなに性能必要ならANS-9010とかバッテリー付RAMストレージ使えよ むしろM/Bに追加のメモコンのせて、RAMディスク専用としてメモリをいっぱいさせるようにしろよ 容量? HDD積め
E6400から買い換えたいのにi7が糞でびっくりしてる。 早く次世代CPUを!
>>372 チューニングの妙でうまく隠匿してるけど、
プチフリはウェアレベリングがある限り避けられない問題だよ
Trimは根本的に大幅に問題を軽減する奴でぜひとも欲しいところだよ
SSDはウェアレベリング用に一般に5%〜10%の領域を予約してるけど
Trimを活用した状態で50%の空き領域があれば53%〜55%がウェアレベリングに使える
人間が感知できないレベルのStopTheWorldだったらストレージとしては問題なし 具体的には最大停止時間が1ms以下だったら必要十分 あとは4KBWriteのIOPSが10000もありゃ良い よってTrimイラネ
必要十分って表現はおかしい
>>397 取り合えず、ググってみる事をオヌヌメする。
ちゅうそつwですか?
ウェアレベリングが必要なNAND SSDなんてMRAMに駆逐されてしまって欲しい
2年ぶりに聞いた。開発死んでたりせんよなMRAM
死んだよ
>>387 いいえパッケージが↓になります
--------------------------------------------------------------
| |
| _,,....,,_ _人人人人人人人人人人人人人人人_ |
| -''":::::::::::::`''> 末永く使ってね!!! < |
| ヽ::::::::::::::::::::: ̄^Y^Y^Y^Y^Y^Y^Y^Y^Y^Y^Y^Y^Y^Y^ ̄ |
| |::::::;ノ´ ̄\:::::::::::\_,. -‐ァ __ _____ ______ |
| |::::ノ ヽ、ヽr-r'"´ (.__ ,´ _,, '-´ ̄ ̄`-ゝ 、_ イ、 |
| _,.!イ_ _,.ヘーァ'二ハ二ヽ、へ,_7 'r ´ ヽ、ン、 |
| ::::::rー''7コ-‐'"´ ; ', `ヽ/`7 ,'==─- -─==', i |
| r-'ァ'"´/ /! ハ ハ ! iヾ_ノ i イ iゝ、イ人レ/_ルヽイ i | |
| !イ´ ,' | /__,.!/ V 、!__ハ ,' ,ゝ レリイi (ヒ_] ヒ_ン ).| .|、i .|| |
| `! !/レi' (ヒ_] ヒ_ン レ'i ノ !Y!"" ,___, "" 「 !ノ i | |
| ,' ノ !'" ,___, "' i .レ' L.',. ヽ _ン L」 ノ| .| |
| ( ,ハ ヽ _ン 人! | ||ヽ、 ,イ| ||イ| / |
| ,.ヘ,)、 )>,、 _____, ,.イ ハ レ ル` ー--─ ´ルレ レ´ |
| |
| |
| Core i7 QUADCORE |
| 870 DESKTOP |
| inside |
--------------------------------------------------------------
>>403 _ ・;:ヽ;:'ノ ̄ ̄`ヽ :',・;: だが断る>
,´ _,, '-´/ ´`ヽ _ ヽ、 ・;:
:',・;: ゙';・:'::ヽ--/ ̄ , `; :',・;: ̄ ̄ ̄ ̄ ̄
・;: ,'。r:'゙';・:イ( ...| /!,・ ,・ ,・ ,・
・ ,・ ,・ ,・ i イi/ イ `ー‐し'ゝL・;:ヽ;:'
レリイ"(ヒ_ ] ヽr--‐‐'´} ;ー---------
!Y!(:::)| |'"⌒(:::ヾ:::-'ーr‐'"「 !ノi |
L.',(:::(|。r:'・_,:'"⌒ ゝヒ_ン ):::)L」 ノ| .|
(::::) | |ヽ(:::: _ン:',・;: ;::(::| | ,イ| ||イ| /
(:::::レ(::::)ー-─(:::ルレ(::::)
"Core i5-750""Core i7-860""Core i7-870"とP55チップセットのマザーボード複数を販売した所があるみたいだけど (σ・∀・)σゲッツ した兵は居ないのか! 外国でだけどw
そういえば、NehalemではPCI-Express Gen2が20レーン出てるそうだが グラフィック用の16レーンを除いた残り4レーンが一般用途(という名のSSD用)になるんでないか?
普通にSLI or Crossfire用だと思ってた。 あれってx16スロット + x16が刺さるx4スロットだろ基本
>>408 CrossFireならx8×2でいいんではないの?
それに、Sandyはデスクトップ・ノート共用だから、そういうハイエンドゲーム用途よりも
一般用途のほうが強いわけだし。
そう考えるとわざわざCPUからグラフィック用途以外で4レーンでてると言うのは意味深だよ
つ SSD
微妙にスレ違いだけどさ "CAFFE SOLARE"や"ベルばら"でやるイベント情報をまとめてあるHPってない?
/ ̄ ̄ ̄ ̄\ | SandyBridge | \____/ | --彡 ̄\/(⌒Y⌒) / 彡 (⌒*☆*⌒) / ,彡´ ̄::::::(__人__)⌒) | |::::::::::::::::::::::::::::::(⌒*☆*⌒) / |:⌒::::::::::::⌒:::::::::(__人__) /《ヾ彡/:(●):::::::::(●)::| \i\ ゝ__彡 |.::::::::(__人__):::::::|\ミ ソ LGA1156って短命だよね、超うける! \《 | \::::::::::::::::::::::/ |__> 丿 ミ \.ゝ.T---T 《ミ| ./
マザーボードはそのまま使えるんじゃね?1ピン少ないだけだし。 PGAじゃなくてLGAだから1ピン少ないだけならピンアサインさえ解消できればなんとでもなる。
1156のMBで1155のCPUは使えないの?
一応使えるっぽい情報は出てるが インテルのことだから、制限かけてきそうだ
無理じゃね
AM2+とAM3の関係と同じって言われてるね。 1156M/BにSandy Bridgeはささるが、 1155M/BにLynnfieldはささらない。
ささるけど動かないじゃないのかな
メモリ周りとかプラットフォームの構造が根本から変わる訳じゃないのに互換性をなくすのはIntel的にもリスクが大きい
チップセットがトラブっても旧版を続投できるという意味では互換は大事にしそう
> もっとも、メインストリーム&バリュー向けのSandy Bridgeは、Nehalem系CPUとある程度の互換性を持つ。
> LGA1155パッケージのSandy Bridgeは、LGA1156ソケットのシステムで使うことができると言われている。
ただしソースは誤答
http://pc.watch.impress.co.jp/docs/column/kaigai/20090716_302169.html しかしこうも言ってる
> Intelが、Sandy Bridgeでピン数を減らしたということは、Nehalem系CPUはSandy Bridge用ソケットには
> 挿せないように配慮していることを意味する。
昔もあったしな 刺さるけどVRMが〜 とか
今年C2Qで組んだから次の組み換えはSandy Bridge Conroe→Wolfdale、Kentsfield→Yorkfieldのパターンと同じ E8400発売当時、秋葉カルテルとか騒がれたよな
423 :
Socket774 :2009/08/27(木) 18:27:41 ID:4kAOGbwU
モバイルとかAtomで十分っす
Sandybridgeってデスクトップ版も出るべ?
socプロセスってなんだよ 同じ45nmでもモバイル用にプロセスが分かれてるなんて想像して無かったな
ああ、Robsonがこういうものだと期待してたんだが、今度こそやっとまともなのが 出るのかな 出てくれるといいが
P57は無くなったんじゃなかった?
Robsonの失敗から何も学んでないな。 誰もHDDキャッシュにエクストラコストなんか払わねえっての。
それは速度と値段次第だな
NANDだから速度を稼ぐにはチップ数を増やすしかない。 値段との両立は永遠に無理だよ。
で、性能とコストに関する定量的なデータは?
>>427 未だにメモリDIMMの相性問題が無くなってないってのに、無理が有るわな。
メモリカードが結局SDカードに収斂したのを見れば分かる。
まあIntel認証したフラッシュメモリのみオケにするなら大丈夫だろうけど、
当然ながらコストがその分高くついて、バルクな廉価品が出回らないだろうし。
多分USB3.0搭載が普通になって、MBオンボードで挿せる4GB〜16GBなUSBメモリ
が出てくれば、Robsonと同様にイラン子な規格になるな。
USB接続じゃ効果出ないだろ
高速化するためのキャッシュメモリにUSB3.0とかアホか レイテンシ高すぎ消費電力高すぎコストもコントローラー分高くつくじゃねえか
今のSSD並でHDDよりマシならモーマンタイ。
Braidwoodはコントローラはチップセット側担当するからね。 でも、Braidwoodで接続するモジュールはライセンスしないらしいので、 あんまり安くならないだろうな。 まあ、ONFIインターフェイス採用のNAND自体、少数派だけど。
だからキャンセル
PCにさらにコンポーネントを増やすという発想が売り手寄り過ぎる
まあでも現実にHDDのキャッシュは必要 ハイブリッドHDDはさっぱりだしな
PCI-Express直接接続のほうがまだマシだな
だから性能が必要ならANS9010みたいなRAMストレージつかえよ。 HDDやSSDのように劣化しないしランダム4kが二桁高いし。
BBUという厄介な代物はPCにそぐわないよね
コンデンサがバッテリー事情を一変させるかもな。 あとHDDは劣化しない。
HDDが劣化しないなんて誰が言ったんだ? シークしないで動かしっぱなしだと、結構すぐにだめになるらしいぞ。
それは劣化じゃなくて故障だろ
劣化しない可動部品なんてもんがあったらみてみたが
シークさせないHDDの使い方があったら見てみたい
電源入れっぱなしでデータアクセスをしばらくしない。 メモリが大量に載ってる場合、メインメモリのキャッシュでほとんどが事足りていると そういうことになるんじゃないかな?
http://vr-zone.com/comments/seven-japanese-chipmakers-to-challenge-intel-amd/7583.html >Not content with the American domination of the CPU industry, seven of Japan's dominant processor designers and manufacturers have teamed up to create a revolutionary new microprocessor.
>
>The coalition is led by the NEC and Renesas merger, which makes them world's third largest chipmaker. Joining them is Hitachi, Toshiba, Fujitsu, Panasonic and Canon. A dizzying crowd of electronic giants, indeed.
これで勝つるwww
>>453 >>456 Intelのなんでもx86化計画(今の先鋒はAtom)がとんとん拍子で
進んでしまったら鬱陶しいということで立てた対抗策と考えていいのかな?
参加している会社が同じアーキテクチャのCPUを開発するんじゃなくて、 早稲田の教授が開発したマルチコア向けのソフト規格に合わせたCPUを 各社が持っているアーキでそれぞれ作るってことなんじゃないの?
既存アーキテクチャの話だと、ARMとIntel、MIPS、IBM(とソニー)が乗らなかったら ルネサスのSHしか残らんぞ。 もうSPARCは組み込みやってないよな? 単に「プロジェクトを立ち上げてみた。会社から協賛を集めてみた」レベルの話だと思うなあ。
>>459 FR……いや、なさそうだな。
将来的にはRXに導入したりもするのかな?
次にメインストリーム($287)に来るのは、何?いつ頃? 今は、Core i 7 860だけど。
AMDって何だっけ
すんな = しないほうがいい ネタにマジレス = カッコワルイ
アム厨の怒りが有頂天
けらけら
WestmereのCore i9(6コア)がLGA1366の最後の花火っぽいことはわかったが Lynnfieldのシュリンク版って出るの?
やる気なしっぽいよ
AESは欲しいなぁ まあSandy Bridgeまで待てばいいんだけどさ
マジレスすると、LGA1366はSandy Bridgeでも残るだろ。
残ったって使えるわけねーだろうに 旧LGA775系のマザボがPenrynに対応したか?
http://software.intel.com/en-us/articles/intel-architecture-code-analyzer/ 誰もこれの存在に触れないんだよな
Sandy Bridgeのスペックなにげにネタバレしてるのに
> The IntelR Architecture Code Analyzer does not assume a specific Intel processor with
> an implementation of the Intel AVX instruction set. It models the ports, functional units,
> first level cache latencies, instruction throughputs and latencies of a possible HW implementation.
>
> Among other things the modeled processor has:
>
> * One divide unit attached to port 0.
> * Two 128-bit load ports (2 and 3), each with an Address Generation Unit (AGU) attached to it.
> * One 128-bit store port (port 4).
> * First level cache latencies in a range between 5 and 8 cycles.
>>477 それでもASRockなら・・・ASRockならきっと何とかしてくれる
L1$のレイテンシ大きいね 4GHz超えてきそう
で、Nehalemアーキテクチャと比べて何処が違うんだ? そのあたりがよくわからんのだが
>>477 Xeon系は寿命がながいんだよ。
LGA1156は互換性がなくなる可能性が高いけど、
構成的にSandy Bridgeはそうでもない。
というか、Sandy Bridgeって中身はともかく足回り新しくない品。
電圧制御うんたらでどうせ使えなくなるんじゃない? プロセスも微細化されるわけだし
まあどのみちLGA1156の方が電気的に互換性が長いってことはないな。 LGA1366を消えると騒いでいるやつは、Xeon系のプラットフォームの知識がないだけで、 何か誤解していると思う。
>>486 消えはしないだろうな
どっちもSandy Bridge系列では使えないってのが正しいかも
残念ながら、使えないとはとても断言できない。 Xeon系はデスクトップ異なっていて電源系やバスの互換性は1世代程度は極力維持されるよ。 電源自体も余裕をもって設計されているのでバージョンアップの頻度がデスクトップと比べて少ないし、 足回りが高速化されても、低クロック版で互換性を維持したりしている。 サーバ用途などはバリデーションに時間もかかるし、既に実績のあるものを短期間でリフレッシュは 負担が大きい。NehalemはQPIへ移行したからFB-DIMM以来の大変更で、 明らかにソケットを変える必要があったけどSandy Bridgeはそうでもない。
>>488 これまでそうだったからって今後も使えるって指標にはならないと思うが・・・
I/O周り取り込んでいくっていう性質上互換性は取りにくいのは確かだろう
Gulftown系列の息を長くして対処するんじゃないの?
仮に互換性が維持されたとしても極めて限定されたモデルのみになりそうだけど
使えないだろうと思ってた方がいいと思うんだが・・・
>>490 別に必ず使えるなんていってないだろ。
ただ使えないと断言できるものではないし、Sandy Bridgeで現行マザーが使えなくなることが確実といえる
デスクトップと同じとは限らんってだけだ。
DDR〜FB-DIMMがらみの長期にわたる問題でごたごたしているから最近はやたら変わっているように見えるが、
元々Xeon系プラットフォームの寿命というのはデスクトップと比べて倍以上長い。
I/Oを取り込む性質上互角性をとりにくくなっているのは確かだが、業界の利益構造を維持する上で世代交代のスパンを
いきなりは縮められないし、2チップ化するデスクトップよりも遙かに互換性が考慮されているのも確か。
>>492 その昔、SossamanっていうコードネームのXeonがあってだな・・・
Beckton作ったのはどこだっけ?サンタクララ? その次ならバンガロールかも
ばずわーどイラネ
じゃあ何て言えばいいんだよ
web2.0も完全死亡だしなw
バズワードはバズワード
windows7しか直近の話題が無いM$が 必死過ぎて涙出るw
>>502 クラウドコンピューティングという言葉自体がクラウド
あれだけ騒がれた仮想化やSaaSもどっかいっちまった
仮想化がどっかいったとかギャグですか
最初は笑われてました けれどしばらくしたらみんな使ってましたってオチは嫌だな
つーか仮想鯖ってむしろポラックの法則的にきつくね?
この手のビジネスの本質って如何に顧客を騙して金をとるか、だからな。 LAMP環境のソフト自体はタダだがサポート料は高いぞ! Movable Typeみたいな玄人好みのブログがCMSとして使われてること自体、非生産的。
まあ、クラウドって 文系がコンピュータ語るときに使う擁護だな。 流行に対して、あとから名前つけてるだけ。 本質的な研究ではない。
>>511 コンピュータ語る文系はそんなことは言わん。 非理系の間違いだろ
文系というか、思考がいかにも文系チックな連中ということだな。 歴史的にみると、より小型のコンピュータの方が量産効果を発揮できて コストとパフォーマンスで有利になっていく傾向にあるため、 一時的な例外はあるもののコンピュータの処理は大きな時間軸でみると、 どんどん多数の安価になったコンピュータに処理を分散化する方向で進化している。 ここであがっている、クラウドや仮想化といった技術は その流れに逆行するタイプの技術である。 発想はわるくないけど、実態に合っていないので、流行らない。
仮想化はともかく、クラウドは分散処理になるんじゃねーの? クラウドって言葉が気にくわないのは分かったけど、 現に存在してサービス提供してるものを見て見ぬ振りするのは馬鹿なんじゃねーの? 言葉が問題だと思うんならもっといいコピーを考えてくれよ つーか何この流れ
>>509 ポラックの法則はプロセッサのマルチコア化を促し、
仮想サーバによる複数ハードウェアの集約はマルチコアの主要な用途。
両者は相性が良い。
クラウドは「サーバの管理マジ勘弁」という サーバ管理自体をビジネスにしていない(つまり大部分の)企業の 要求から来るもので 顧客から見れば仮想化や分散処理は関係がない。 しかしその実装とは大いに関連する。
>>515 いや、それは分かってるんだけども、結局何故かシングル性能たんね、って話が
不思議と出てきてるように見えるんでそう思った
実際の所、サーバの統合・集約ができるのはサーバに求められている 性能需要が停滞してきたから。十分な性能があるのなら、管理がらくだから、台数は少ない方がいい。 一見サーバへの集中化が進んでいるようにみえて、 これからはサーバはどんどん小さくなってますますクライアント本意になる。
マルチコアはサーバの性能ニーズをこれまで以上に安価に満たすようになる。 すると、ハード・システムのコストよりも、管理サービス的な人的経費の方が大きくなるし、 こんなのアウトソーシングでやっちまえよって話になるのもムリもない。
IT Doesn't Matter か
>>519 で、何年かたって今まで見られなかった機械的・人的な不具合が出始めると
自分たちでやってノウハウを蓄積しようって流れが繰り返されるんだよな
522 :
Socket774 :2009/09/12(土) 22:04:44 ID:UoXoNKSq
SandyBridgeは目玉であるAVX対応アプリがなきゃ、Core-i並みの性能か?_
ロードユニット・浮動小数ユニットが増えてるので従来SSEでも恩恵はあるみたいよ。 もちろんAVXだと更に良いけど。 Intrinsicsで書かれたコードは再コンパイルするだけでAVXに対応できる(従来SSEとの両対応も可)ので まあ時間の猶予はある。
FP用にポートはふえてないだろう
ポート数は増えてないがFP演算を発行できるポートは増える。 たとえば128ビットSIMD乗算命令を2回同時発行できる。
ついでに言うとロード用にポートは増えてないっぽい Store Addressユニットがロード命令の発行に対応しただけに見える。
とはいってもAVX使っても3オペランドと256ビット版(FP演算のいくつかのみ)が使えないくらいだぞ まあそれが大きい物で1.4倍くらいの差になるんだけどさ
CUDA使ってみたけど単精度浮動小数を大量のデータに対して 同一アルゴリズムで適用するという、きわめて限定的な使い方に なるんだな。ビデオのエンコード・デコードぐらいしか使い道が想定 できん。 SSE系は使い勝手はいいけど実行効率はおそろしく悪いし、ここら へんがもうちょっと改善されてくれたらな。その実行効率の解決を 目指して作ってるのがララビーなんだろうけどさ。
>SSE系は使い勝手はいいけど実行効率はおそろしく悪いし CUDAの効率知ってて言ってるのか? いや、触ってみたならどういうもんなのかわかるだろうけど
>>529 の言う効率は製造コスト当たりの理論演算性能じゃね?
実行効率だと完全に言葉の誤用だな
だからSSEに最適化して3%変わったら奇跡なんだって 最適化に夢見過ぎ アルゴリズムに勝るもの無し
CPUのスレでアルゴリズムに勝るものなしはないだろ それは全く独立した別の問題だ
ハード設計者やその気持ちになれる人間はプログラマやその(ry よりも少ないからマ的発想の会話が多くなるわな
クラウドとかコードアナライザとかソフトよりの人間が興味ありそうな話が 伝統的にCPUのスレに多いのはソフト系の人間の絶対数が多いから仕方ない。 自分はハード系だが、コードの所用クロックを全て1クロックの狂いもなく計数できるコード神がいたとしても 次世代のCPUを予想するのに十分な知識は得られないからそのところは勘違いしないで欲しい。 最近は1コアで複数スレッドが走ったり、電力がらみで動的に性能変動するくらいだし、どんどん難しくなる一方だぜ。 現実的なコスト、納期、信頼性、電力で実現できるか否かはソフトの実効速度上の理想とは、 別のところにある問題だからな。よっていくら命令セットやコードばかりを拡大して取り上げても、 木を見て森を見ず、満足に当たる予想は立てられないし、 実際その手の推測から高確度で次世代CPU像をうまくあてられた人はみたことがない。
今のところ、Sandy BridgeはNehalemとSIMD等を除いては大差ない性能、 その程度しか言えないね。それ以上は与太話の域をでていないな。 Nehalemもそうであったが、電力をどれだけ削減できるかで 製品のクロックが変動するから、細かい性能差を議論するとなると、 電力が既に推定できているのが大前提になる。1-2年前時点で電力予想しろはムリゲーの世界。
加算合成みたいな処理では400%どころじゃないんですがね AVXでやればループの回数をさらに1/4にできるでしょうね GPUでやれって?そりゃまた失礼しました(^^
>>532 3%wwww
君がショボいからだろ。
SSE使うか使わないかでものによっては4倍かそれ以上性能に差が開くんだけど?
特にSSEの最初の方のSは重要。
VTuneとか使ってる?
つーか用途次第だろw SSEでどう頑張っても0.1%も変わらないアプリもあるし、SSEがあれば10倍速くなる アプリもあるだろう
と思ったが10倍は難しいか
CUDAは使ったことないから分からんが SSEでも最適化ってかなりめんどくさかったな ビジネスアプリだからかもしれんけど もっと手軽に導入できる開発環境がないと エンコやゲームみたいなアプリ以外コストをペイできる代物じゃねえ
キャッシュローカリティ制御はどっちかというと「使わないことで」性能悪化する類のものだけどな。 その辺は平気で変わるよ。レジスタ・L1キャッシュ間の少ないメモリをこね回すだけの操作中心だと 余り効果ないけど。 無論、ヨイショされ気味のCellやCUDAをこき下ろすのにスカラ演算に弱いのを散々指摘してるから どういう演算が並列化に向いてないかはよく把握している。 あと、スカラ命令の拡張だとpopcntとかのアクセラレーション命令使うと大幅に性能改善したりとかってのもある。 ハードウェアの特性を意識しないアルゴリズム(笑)に意味は無いよ。 たとえば8近傍画素とのメディアンとるのにクイックソートなんて使うか? SIMD化したバブルソートのほうが速いよ。
基数ソート?
万能で性能が上がる解は存在しないよなー CPUは雑多な処理で性能上げれるようにがんばってきた でも、雑多な処理での性能向上に回路規模などを要因として限界見えてきたので ベクトル演算性能上げてそちらの性能を上げる方向に変えてきた ベクトル演算性能だけで見れば、余分な回路がたっぷりついたCPUよりも GPUの方が性能が高い。 当たり前のことだけどね
SSEなんてただCPUを売りたいがための言い訳にすぎないからな
0.4秒→0.1秒 これでも4倍はやいことになる 団子が言ってるのはそういうこと?
>>544 SIMDだから同じだと思ってるだろ?全然演算粒度が違いすぎる。
あまり話題にならないけど、Core MAはなにげにビットスキャンとかのスカラ命令も高速化してるよ。
549 :
Socket774 :2009/09/13(日) 10:14:50 ID:Es+knxil
>>545 SIMDなきゃx86は浮動小数点演算でRISCに打ち勝つことはできんかったと思う。
P6(PentiumPro)アーキテクチャでいいところまで行ったがRISCを追い抜く
ことはできなかった。
あれは主にスタックベースの命令セットから脱却できたのが大きい G4のAltiVecは高性能だったが、クロックが上がらなかったのと、FSBの帯域が(ry
>>549 8087の設計が古すぎたが、後方互換性を考えると仕方がなかった。
IEEEの標準仕様をそのままインプリメントしたスタック型アーキテクチャは
高速化には不向きだった。その代わり64bit倍精度浮動小数点演算を
内部的に80bitで行うため誤差が小さいという利点はあった。
SPARC V7の初期は浮動小数点ユニットを内蔵しておらず、Weitekのような
サードパーティの演算ユニットを流用していた(命令を変換するインターフェース
ユニットを介して実行)。MMUも別チップで4チップ構成だったにもかかわらず、
x86の浮動小数点演算より高速だった。いかに8087が時代遅れだったかということだな。
>>549 x86は以前としてFP系の方は苦手だ。全体的に速いから結果的に勝っているだけ。
x86が何故整数だけでなくFPも高速かというと、FPユニットに力をいれているからっていうより
内蔵キャッシュが強力で、クロック高めってだけ。仮にx87に限定しても最速の可能性はある。
流石に無いわそれは。 CellやPOWERがあるし、128ビットFMA×2のSPARC64 VIII fxが控えてる。 Pentium 4で倍精度実数演算をスタックからレジスタベースに移行するSSE2が 使えるようになったことで格段に性能上がった。 HPCではPentium 3まで全く相手にされなかったこと考えればまあ、そういうことでしょ。 ちなみにx87・SSE*スカラの実効性能のほうは(HT使わないなら)36エントリの リオーダリング機構を持つAMDのほうが依然として最強。
・・・よん?
なんだかんだで4様(正確にはXeon)はIntelにおけるHPC本格進出の立役者
スカラFP対決にきまってるだろ。 SIMDはまた話が別だ。もとからx87にないしな。
つーか、SPEC CPUの結果はSIMDつかってないからなあ。 それであんだけいけるってことはx87でもトップレベルだろう。
ちなみに当時のPentium 4時代のSPEC CPUをみれば SSE2で劇的に性能がのびたことはないのがわかる。 せいぜい10-20%程度の世界だったよ。 x86がFPでも最速クラスになったのは、RISC/IA63が相対的に弱体化したことと 地味にFPの実装を改善していた徐々にスコアが伸びていったことによる。 SIMDは関係ないし、SSE2以降のスタック廃止の成果も大きくはない。
余計苦しいな。 PPC 970(G5)で倍精度スカラFMA×2だぜ。 CellのSPEだってSIMDユニットのプリファードスロットだけ使えば性能1/4(あるいは倍精度なら半分)だが Enhanced〜のほうなら余裕で同クロックのCore MAのx87性能は下せる。 そのくらいx87は非効率的
そりゃSPECfpはintのほうとは違ってメモリ帯域ベンチの要素が大きいからな。 SIMDでそれだけ伸びりゃ万々歳だよ
GPGPUはなんつーか特定の使い方を強制するからなぁ。 汎用性はない。これで整数も並列で高速だったらまだよかったけど。
http://www.nminoru.jp/~nminoru/memo/spec/spec_cpu2000.html あまりSPEC CPUで最近まとまってるソースはしらないが、
とりあえずここをみるだけでも、実装の方がはるかに重要だとわかる。
例えばint/fpのスコア比は、Pentium 4やAthlon/Opetronではほぼ1対1であるが、
Pentium IIIではfpのスコアが小さい。しかし、SSE2があるDothanでもPentium III
よりましであるものの劇的に改善されているわけではない。後継のYonahではかなり改善されている。
スタックアーキテクチャではないFPUをもつRISCでもスコア比が2倍のものから
PPC G4のようにfpのスコアがやたら低いものもある。
fpがメモリ帯域依存といっているのは確かにそういう傾向はあるが、
キャッシュに依存している部分も大きい。
また、レトロなx87ベンチであるSuperPIでは、Core 2/NehalemはAMDよりも速い。
というわけで、x87の時のx86が極端に悪く、 SSE2導入から極端によくなったというわけではない。 実装の改善の方が命令セットの問題よりも遙かに大きいわけで、 これはコードといくらにらめっこしていても、より大域的な視点で実測データをみていかないと わからない話である。
> Pentium IIIではfpのスコアが小さい。しかし、SSE2があるDothanでもPentium III
> よりましであるものの劇的に改善されているわけではない。
Pentium MはPentium IIIまでと同じくSIMDユニットが64ビットなんで分解して処理しないといけない
→デコーダネック
もともとモバイル用だから浮動小数のスループット改良は余り考えてなかったっぽい。
あとYonahで改良されたのはSSE-μOps Fusionによるものだな。
上下64ビットに対するオペレーションを1つのFused μOPsとして扱えるのでデコーダのスループットが
改善&スケジューラの負担も軽くなった。
Merom以降演算ユニットの入出力が128ビット化されたのでYonah1世代限りの技術だったが
(どうやら256ビットAVX(Sandy Bridge)の内部表現として復活するらしい)
>>563 まあ、Pentium 4の時点ではSIMDユニットは64ビット半速×2だから理論スループットに
そこまで差があったわけじゃないからね
>>564 Yonahはその通り、結局実装なんだよな。
SSE2でスタックを廃止したおかげでFMAとかを導入できたり、回路実装しやすくなったり
最適化コンパイラを作りやすくなったり、という設計上の2次的なメリットはあるというか、
むしろそれが目的なんだろ。ある時点で、x87とSSE2とで所要クロックを比較したら差が出た程度では
移行のメリットの本質はわからない。
元々x87にある命令と同等の命令をSSE2置き換えても、実行ユニットが同じである手前、
実際の所、劇的な改善はない。
>>557 それは知らんかった。今まで、SIMD使っての結果だとばかり思ってたよ
それを言っちゃうとSSE*→AVXもあまり変わらないことになるぞ まあ事実として命令エンコーディングの改良版が使える以外はハード的にNehalem+α的なスペックと推定できるが
>>566 騙されるな
2006とかのスコアのコンパイルオプション見てみればわかるが普通に自動SIMD化・スレッド化のスイッチ入れてるぞ。
まあ、ソースの方に手を入れての手動最適化は禁止だな。だからCellだと標準のC/C++なら動きすらしない。
(スパコントップ500のLINPACKの場合は可能)
スカラ/ベクトル
SISD/SIMD
の効果は別個に考えて欲しいな。
SIMD/ベクトルは汎用演算よべるものじゃないし、これを容認したら何でも有り。
SPEC CPU専用の命令と半チートユニットを追加したものが勝ちだ。
基本はFP性能といったら暗黙の了解でスカラFP。
SIMDや特定用途向けハードまでいれると何が優れているのかよくわからなくなる。
>>567 AVXはSIMDの効果がメインだろ。命令エンコーディングは後藤が騒いでいるが、
おまけの効能しかないし、これでx86が生まれかわるみたいな大げさな代物では到底ないのはわかるだろ。
一方で、SIMDとは関係なくFPユニット周りが増強されているのならば、
既存のSSEコードも再コンパイルなしで速くなるし、再コンパイルすれば更に速くなる。
しかし、Sandy Bridgeの本領を評価するにはやはりバリバリAVXと新しいポート構成に最適化された
アプリで評価する必要がある。そんな感じだろ。
自動SIMD化なんて使われるようになったのは最近の話だし、 まだまだ影響軽微だな。個人的にはわけがわからなくなるからSIMDは禁止にするか、 明確に別ジャンル化してほしいものだ。
SPEC CPUのCintやCfpは全ベンチマークの幾何平均だからベンチマーク毎に見ればスコアを大きく伸ばしているものもある ID:tMhawENgはアホってことで終了
自動SIMD化というのはこういうもののこと? >ループを解析して可能であれば SIMD 命令を使って >ベクトル演算をするようにコンパイル こういう事なら80年代からスパコン用コンパイラでやってるけど
ちなみにIntel C++の-fastオプションは最速のスイッチ全てONな。 単純なループなら自動的にベクトルコード化されたコード吐く。 ちなみに言うとx87は1命令毎にfxch使わないと並列化できずにストールするから デコーダ食いまくって全然速くならないよ。 NetBurstまでのトレースキャッシュならまだx87にも分はあった。 ついでにいうと64ビットではx87原則禁止(SSE*使用)だし。
SandyBridge世代のアーキテクチャはSSE/AVXの強化が中心で パイプラインにはあんまり手は入らないのかな? デコーダがボトルネックなんて話もあるけど 結局Conroeの頃から大して変わらないままなのは スカラのシングルスレッドでの向上はもう諦めたのかね AMDの方はかなり手を入れるみたいだけど、どうなるやら
Sandy Bridgeは旧来SSEも遅くしちゃいけないしAVXも対応しなきゃいけないので デコーダのロジック部はかなり膨れあがってると思うよ。 文字通りSSEからAVXへの「Bridge」だからな。 んで、主要アプリのAVX移行が完了したあたりでSSE*を切り捨てるだろう。 もちろんいきなり使えなくなるんじゃじゃなくて、デコードの高速化のためのロジックを弱体化させるだろう。 具体的にはプリフィクスの長さ分だけストールするようになる、なんてことが考えられる。 旧来命令の切り捨てってのは繰り返してきたことだからな P6で16ビットコードが遅くなったりもした。
>>571 幾何平均だからむしろ一部のベンチでスコアを伸ばしても影響軽微なんだろ。
SPEC CPUで自動ベクトル化されたスコアが登録され始めたのは比較的最近。
まあ元の話は自動ベクトル化どうこうではなくて、
x87と非SIMDのSSEで性能に大差がないって話だけどね。
>>562 を見ればわかる話。
自動ベクトル化のスコアはここ数年で登録されるようになったけど、 所詮、最低SPEC CPUベンチ特化でSIMDコードがはきだせれば高スコアがねらえるので、 自動ベクトル化を標準ベンチで認めるのはCPU、コンパイラ双方の実力をわかりにくくする だけで個人的には反対だ。 極端なハイスコアをあげているのは自動マルチスレッド化の方が顕著だけど、 次バージョンでは評価の枠組みを整理し直して欲しいな。
ベクトルコンピュータ否定ですか?
SPEC CPUの評価方法の話だろ。 自動ベクトル化、自動マルチスレッド化を有効にしたスコアは専用の項目にわけるべきだよ。 まあ、最近のマルチコアやサーバ用CPUのSIMD強化ブームをみる限りでは 黙っていても次のSPEC CPUがあるのなら整備されるのではないかと。 今のSPEC CPUの枠組みでは、自動ベクトル/マルチスレッド化は正当に評価できん。 高々十数種類しかない決まったソースコードで最適化できりゃいいからな。 実アプリに広範に対応できるような自動並列の技術はいらなくてもどうにでもなる。
SPECは元々自分のソースを走らせる人間が参考にすべきベンチで バイナリで買うソフトの参考としては疑問がある
どんなベンチにも限界はあるだけど、 ただ対処できる最低限のことに対処できていないから問題なんだな。 これまで汎用CPUにおけるSIMDは、おまけ機能の話だったのが、 最近になって、マルチスレッドと並ぶ、CPUの高速化の主役としてまじめな取り組みになってきたことに SPEC CPU側の対応がおいついてない感じ。 SPEC CPU以前はDhrystoneやWhetstoneといったもっと出来の悪いベンチや理論MIPS値で 異なるアーキテクチャ間の性能比較が語られていたのだが、 ベンチマークも常に進歩する必要がある。 まあもっと酷いのがSPEC CPUのrate。 同じSPEC CPUのプログラムをスレッド数分起動しただけの手抜き作なのに、サーバ用CPUでマルチコアが普及してからは、 むしろrateの値が語られることが多くなってしまった。次期バージョンではマルチスレッド/スループット 評価用ベンチは全く見直されること必至だろう。
SYSmarkで良いと思うんだけどね SPECは元々サーバサイドプログラム用ベンチの性格が強いのでエンドユーザー向けじゃない。
SPEC CPUはサーバサイドじゃなくてEWSだろう。 PC向けとしては使わないアプリばかり。 RISC EWSが全盛をきわめたときがSPEC CPU自体も華だった。 サーバはやっぱTPC系。SYSmarkはシステムに依存してるから、異なるアーキテクチャの比較には使えない。
わしが見るのはSAP SDベンチマークだけ
Intel・AMDのプロセッサ+Windowsでのシステム性能比較としてはSYSmarkほど優秀な比較基準はないと思ってる まあエンドユーザーは各ゲームのベンチで良いと思うけどさ。
ああ、SAPがあったか。 実際の所、SPEC CPUは、RISCが生きていた時代には新しいCPUが出るたびにチェックしてたけど 2006以降は全くといっていいほど見てないな。マルチコアでわかりにくくなったってのもあるが、 x86以外がかなり壊滅したから他アーキテクチャに興味が薄れたってのもある。
SSEに最適化はおそろしく面倒臭い
ぶっちゃけ、新しいCPUがでると、ありとあらゆるベンチマークを走らされて、 世界中のオタクの厳しい評価の目にさらされ、数%の速度差にまで原因に議論が及ぶ PC向けCPUが一番性能評価の結果が信用できる。 それに比べると未だに理論flopsみたいな過去の遺物をベースに語られるHPCなどは、 実は全く客観的評価の信用ならないジャンル。
Googleのアレはどうよ? クラウド(笑)用のベンチとしてはそこそこ判断基準になりそう
>>586 SpecCPU2006はx86とPowerとごく一部で富士通Sparcの結果が載るぐらい。
>>588 HPC関連はCAD CAEなどのエンジニアアプリのベンチがあると思ったけど
まあ、それもx86でのベンチ結果ばかりだけどね。
(この手のアプリは今でもRISCサポートしてるものがあるが、数年後には
消えるのかな?)
アーキテクチャとしては小幅な変更だったので Nehalemのシングルスレッドあたりの性能は Yorkfieldからさほど変わらなかったけど SandyBridgeで大きく向上する可能性ある? 端的に言うとSSEやマルチスレッド処理に最適化されてない 旧来のアプリケーションでも処理が早くなるのかどうか
デスクトップスパコン SX-8i 消費電力1.5KW なぜこんなに電気食うんだ?
無いな。 ただこれまでにも商用ソフトのいくつかはライブラリ経由で透過的にSSEを使ってるから それなりに効果はありそうだけどね。 たとえばSSE4.2のテキストサーチAPIはかなり恩恵が大きい。 Webサーバだったり高級言語のインタプリタに実装されればかなり性能向上が期待できる。 あと、CairoとかImageMagickとかの腐れプログラムがSIMD対応改善してくれると オープンソースアプリも含めてすっげー恩恵受けるんだが
なるほど The free lunch is overってのが SandyBridgeでは加速するのか でもこのままマルチコアとSIMDで お茶を濁すだけでは先が行き詰るのは 見えてるからなんとかしないと マズいのでは、となんとなく思う シングルスレッドでも性能上げるなら 投機的マルチスレッディングだ、ってのを どこかで見た覚えもあるけど立ち消えに なっちゃったし今後どうするんだろうね
The proceccer manufacture is overが加速
>>596 おや? 数えてみたらピン数大したことないな
2004年のパソコンCPUよりは多いけど
しかし、フリーランチが終わるとなると、旧命令の切り捨ても迂闊には出来なくなるな 今までは、切り捨てとは言っても一時的な落ち込みで、長い目で見たら確実に高速に なっていった訳だが、今後はそうも行かない それが困るからといっても、シングル性能の向上は実際に困難な訳で…
IPC維持しつつクロック自体は上がっていくんじゃないの?
たしかにCairoとかSIMD対応してくれると嬉しいなぁ。 64bitが来つつある事だし、メス入れねぇかな
>>593 ImageMagickは構造が腐ってるからなぁ。
対抗馬となりうるGEGLはGPUへの対応が進んでるもののそれ以外の開発が停滞してるし。
意外とFFmpeg辺りが全て飲み込むかもね。ペースはゆっくりだけど開発コミュニティは活発だし。
pixmanをsse2有効にしてコンパイルしてみたけど firefoxだけでは違いがわからない…
パル男はやはりIntel系だと良い仕事をする 総括も的確でそつが無い 凄まじいIntel愛を感じる そんなパル男が好きだ
ついにゲルシンガーがクビか オレゴン大丈夫か?
607 :
MACオタ>606 さん :2009/09/15(火) 08:30:46 ID:Y6HvA9C9
>>606 これですか… EMCへ行った様です。
http://news.cnet.com/8301-13924_3-10351567-64.html -------------------
The Wall Street Journal reported overnight that EMC is expected to announce Monday
that it is hiring Gelsinger to run its storage products business, along with some software units.
-------------------
そんな、ゲルたんが・・・
IDFの講演まではやるのかね
ゲルシンガーが居なくなって1〜3年後に表面化してきそうなこと ・Itaniumが盛り返す ・Atomの開発ペースが上がる ・XeonMPが混乱する ・HSWが混乱する ・LRBが混乱する
1155ってトリプルチャンネルになるんかね
ピン数を増やさなきゃ無理じゃね 仮に未使用のピンが相当あって数的には足りたとしても、Xeonがトリプルチャンネルの間は同じスペックにはしないと思う それにトリプルチャンネルにすると多分4層基盤じゃ無理でマザーが高くなるんじゃないかね
メモコンをCPUに内蔵する欠点として、メモリ仕様が固定化されて しまい、メモリ仕様によりソケットの種類が増えてしまうというのがある。 LGA1155もデュアルチャネルさ。
CPUソケットが増えるかマザーチップセットが増えるかで結局大差ないと思うがな
ゲルたんいなくなるのか、さみしくなるな
CPU開発でオレゴンチームとイスラエルチームの インテル内における力関係はどうなるんだろうか
ゲルが次の社長だと思っていたので衝撃だった
IAGの上級副社長の一人がイスラエルチームのトップだから、 イスラエルチームの方が主導権持つようになるのかな。 もう一人はマーケティング畑の人っぽいし。
・デスクトップ プラットフォーム事業本部(Desktop Platform Group) ・モバイル プラットフォーム事業本部(Mobile Platform Group) ・エンタープライズ プラットフォーム事業本部(Enterprise Platform Group) ・インテルコミュニケーションズ事業本部(Intel Communications Group) ↓ ・モビリティ事業本部(Mobility Group) ・デジタル エンタープライズ事業本部(Digital Enterprise Group) ・デジタルホーム事業本部(Digital Home Group) ・デジタルヘルス事業本部(Digital Health Group) ・チャネル製品事業本部(Channel Products Group) ↓ ・PCクライアント事業部 PCG(PC Client Group) ・データセンター事業部 DCG(Data Center Group) ・ビジュアルコンピューティング事業部 VCG(Visual Computing Group) ・ウルトラモビリティ事業部 UMG(Ultra Mobility Group) ・エンベデッド・コミュニケーション事業部 ECG(Embedded and Communications Group) ・デジタルホーム事業部 DEG(Digital Home Group)
インテルはそろそろ事業部の統廃合を沈静化すべきだろ 何回組みなおししてるんだよと
>>611 DDR3はクロック(帯域)の伸びしろ大きいからデュアルチャネルで十分なんだってさ。
エデン先生の次回作にご期待くだしあ><
>>622 ときどきシャッフルしないと組織は腐るよ
大きい組織は否応にも大企業病に罹ってしまうものではあるが できるだけ症状を和らげるように取り組み続けなければならない
俺の中では名前のインパクトでチャンドラシーカとのツートップでした
>>624 特に変化の激しく早いIT業界で大企業が組織を維持しつつ生き残るには必要不可欠かもな
IBMみたいに趨勢にあわせて注力する箇所と核を残して後はバンバン切り捨てっ手法もあるけど
386の父もとうとう退社かぁ。 もう彼がいなくても開発していけると踏んでのことだろうけどな。
ゲルジンガーまだ48歳だって? 30年勤務、逆算したら18歳からだぜ どんだけ
え、Nehalem-EXが今年の秋だって?
なに寝ぼけてる。Intel製品のシュリンクのサイクルはまだ2年切ってるぞ 10月か11月くらいだったと思う。
↑誤爆
おまえは何を言ってるんだ
誤爆?
Intelの技術ニュース情報ってFacebookでも配信してるんだな 多すぎて追いかけきれない><
ここに書き込む時間を削ってですね
2chに書き込まないと 死ぬ
>>638 2chに書き込んでいる動画をとってだな
それを旨くつなぎ合わせてループさせれば
2chに書き込み続けなくても良くなるよ
ICC11からHalf Floatと単精度の相互変換サポートしてんのな。 もちろんユーティリティ関数でソフト的にやってるようなんだが、 Larrabeeではハード的にサポートされた機能だし、 AMDはCVT16としてBulldozerに実装予定。 やぱ、それなりに需要あんのかな。
JasperForestのソケットがどうなるかが気になるなあ。 現状出てる情報だとPCIe/ESI/MC/QPIを搭載ということだから ・実はLGA1156にはQuickPathとESIのピンが予約してあるので、有効化して使う ・実はLGA1366にはPCIeとESIのピンが予約してあるので、有効化して使う ・全く新規のソケットを使う このどれかだと思うんだけどな。
・ソケットではない てのはないか
Lynnfieldのダイ写真を左右反転しただけのように見える まあ、Lynnfieldでは潰されてるっぽいPCIeとは反対側の辺にあるQPIも 有効になってそうとか多少違いはあるっぽいけど
> Lynnfieldのダイ写真を左右反転しただけのように見える 同意
じつはLGA1156はQPIピンやPCI-Express x1ピンを用意されてる可能性は高そうだな シリアルだからピンは少ないし、小規模WSならLynnfieldコアをまんま転用したほうが楽 そもそも、メモリパッドがBloomfieldとLynnfieldと同じ、って時点で いろいろあるんだろうなと思うが Lynnfieldは、実はBloomfieldのスーパーセットなんでないだろか
なんでわざわざ一年かけて、1366 + 9xxと1156 + 8xxに プラットフォームを分断しちゃったんだろう? 一年かけてCPU単体のTDPが130W→95Wに下がったのかもしれないが、 素人目には、最初から8xx + 1156一本で良かったように見える。
1366は元々Xeon用
Lynnfield、Havendaleは元々今年の初めにでる予定だったのが、 開発遅れや不況がからんで、LGA1156の登場がこの時期まで遅れただけじゃないの?
当初からデスクトップ用は1156の1本だったけど メモコン搭載に苦戦して伸びたからサーバー用のプラットフォームを デスクトップのハイエンドに降ろしてきただけ
メモコンで苦戦してたらBloomfieldも出せないだろ
メモコンじゃなくてMCH(GMCH)といえばよかったか
何だ釣りか
なんとまぁ
既存のLGA775でなくてわざわざ高コストなLGA1366をデスクトップにも投入しなければいけないほど 競合他社の製品が優れていたということはなさそうに思うが、 ただパフォーマンス帯でLGA775を延命しすぎると新しく出るLGA1156が売れなくなるから、 しかたなしに投入を決めたのかな。
LGA1156だとCPUからはPCIeがx16一本になるから、 X48後継のプラットフォームとしてLGA1366を出したんじゃないの?
チップセットをCPUに同梱させるとM/Bメーカーが儲からなくなるから ってのも要因じゃないの?
確かに1156だけにしてしまったら 拡張性が物足りないという不満が出そうではある
でもSandy BridgeになってもCPU側のGPU用のPCIeは全く一緒だぜ?
多分、PCIe直出しの安定や互換性が取れなかったから遅れたでは? 独自仕様のQPIやDMIなら、仕様をまげて対応、ってのもできるが PCIeは既に公開してる規格だからなあ
お前ら、たまにはスレタイを思い出してあげて下さい。 なんで現行版がそうなったかの推論など無意味。 現にこうなっているのだから、どうしようもない。 不毛だよ。
そう。剛毛さ。
みんなパイパソが好きなんだろ。まあそれは有る意味次世代な訳だが。
( ^ω^)がるむたうんは何時出るんだお
Σ(;^ω^)がるふたうんでした
http://forum.doom9.org/showthread.php?p=1319899#post1319899 http://forum.doom9.org/showthread.php?p=1325590#post1325590 >A Cortex A8 uses about 0.2 watts, while an Atom with chipset uses about 15 watts. They're hardly comparable.
>
>From a test done a while back on H.264 decoding with all assembly code turned off, if a Core 2
>has a speed of "1.0" per clock, while a Cortex A9 has a speed of about "0.4" per clock, a Pentium 4 has "0.38", and a Cortex A8 has about "0.28", if I recall the numbers correctly.
>I don't know if the gap closes or increases with the addition of NEON, but the Atom
>has much much worse performance than the Pentium 4, so I would expect the Cortex A9 to trash the Atom clock-for-clock; even the A8 should beat it.
>>666 CPUアーキテクチャスレに戻ってくれ
ARMが自作で使えるようになったらまた来てくれ
無茶言いやがるな
ARM targets Intel with 2GHz multicore chips
http://news.zdnet.co.uk/hardware/0,1000000091,39751858,00.htm >"The sweet spot for most customers is dual-core," said Schorn, "but the base design can go up to quad-core and some partners are already building those.
> Eight way is coming. Everyone's high-end roadmap is putting down more cores, and we do that. We're headed in the direction of Intel's mainstream processors.
> We have other plans that surpass the current performance, and we'll intercept Intel in a high-margin area, not just with Atom."
>667 つarmadilo-9 最近、色々な非x86自作あるよな 組み込み向け開発とか工場の自動制御装置開発とかで やぱPCライクな環境のほうが開発しやすいんかな?
BeagleBoard出して来てどうすんだ… ヨタ記事かどうかの見分けぐらいつくようになれ
ヨタ記事つーか自分とこの雑誌の宣伝じゃないの
ARMネットブックのNetWalker(PC-Z1)は800MHzのシングルコア搭載で4万5千円。 他のネットブックの方が安いし速い。もの好き以外買う価値なし。
速さだけが重要なカテゴリじゃないだろ
SSDの容量も4GB Windowsが動かない Wineも動かない ぶっちゃけZaurusの再来程度にしか思ってないんだが、SHARPは勇敢を通り越して無謀 ネットブックの売れ筋も8.9インチから10インチ〜12インチにシフトしてる キーピッチが狭い・画面小さいってのは使い勝手を低下させるからな
ネットブックが大型化に向かおうとしてるからMIDの隙間が広がるんでしょ 別にネットブックとして出したいわけじゃないし
まあニッチマーケットだな
それは否定しない
iPhoneなんかも入れていいならニッチっつーわけでもないと思うけど、 まぁどうでもいい
なんだかんだで3G携帯電話最強すぐる
> おそらくダイの表から撮ったか、裏から撮ったかの違いで細かな形状が違って見えるのだろうが、 へえ、ダイの裏から写真撮れるんだね
Intelスレではスレ違いだが 自作板に非x86のスレが一つくらいあってもいいような気はするけどな
そう思うなら自分で建てて盛り上げろ
非x86ならHW板が妥当 アーキテクチャスレでやればいいと思うけど
なんかGulftownのダイサイズが260mm2程度あるんだが 見間違いか、それしか縮まなかったのか
カーナビにIntel CPU採用されるはいつか。
XscaleのときにSONYのカーナビに使われてましたよ。 三菱みたいな強いとこは難しいと思うが、少量生産ならMoorestownにも強みはある。
ソニーのカーナビはMAPLUSの声優ナビ機能をつけるんだ
>>688 コア6個だから上出来でしょ。
4コアなら200切るんでない?
Westmereはほぼシュリンクしかされてないんだから4コア出されてもな
デスクトップ向けの1366はガルフタウンで終わりだよね? サンディ以降のハイエンドプラッフォームどうなるんだ?
>>694 1365とか、そんな感じで
ハイエンドはワークステーション・DPサーバと共用、
メモリ速度を抑えてチャネル数を増やして大容量メモリ
を積めるようにするから、LGA1155とピン互換ではない。
Sandy世代もメモコン内蔵DDR3で逝くから、ピン数は増えない。
QPIの仕様も同じ。DPサーバとワークステーションで同じCPUを
使う関係で、PCIe16xはチップセット側に来る(CPU内には来ない)。
Gulftownの価格と性能が判明してきたらかなり荒れそう
32nm Xeonが普通に1366で使えたら、普通に1156はいらない子になるな。
は?
Xeonが下は3000円から上は54800円までずらりと2000円刻みで20モデルぐらい展開するんなら 要らない子になるんじゃね?
ついったー@本田雅一 インテルは、すでに動作する22ナノのウェハを披露。詳細はPC Watchで笠原君がレポートすると思います IDFではサンディブリッジの実働品でデモを行ってます<基調講演
Sandy Bridge will feature a sixth generation graphics core on the same die as the processor core and includes AVX instructions for floating point, media, and processor intensive software
Intel is also researching 3-D Chip Stacking and other ways to integrate for high density chip to chip connections, small form factor and the ability to combine dissimilar technologies.
Stackingはまだ実用までは遠いか
>>701 ノート用が軸だから、グラフィック入れるのか
on the same die ってとこが思い切ったな
Clarkdaleのダイだ
>>707 Clarkdale用のDual Coreかな?
被ったすまん
GPU混載は絶対無いと言ってた奴はどこに行った?
俺のことか 「絶対ないよ」
>>704 3.8GHzのノートですか…w
ノートとか関係なしにメインストリームは2チップソリューションにするってだけでしょ。
Intel kicks off 32nm processor production
ttp://www.tcmagazine.com/comments.php?shownews=29523&catid=6 >Posted by: Cristian on September 14, 2009 16:48
>There's about one more week to go until the IDF 2009 conference in San Francisco
> and Intel has reached a major milestone by starting production of its first 32nm processors.
45nmプロセスの量産開始が07/10/25?辺りだったのでシンプルなTick-Tackモデルと比較すると1ヶ月ほど早い立ち上がり。
ttp://partner.alsi.kz/UserFiles/Files/Roadmap%20part-2.pptx ・Nehalem-EXのモデルナンバーとスペック等。
・FBD2はQPIベースっぽいな。
6倍速, 1/4幅(16+4bit)のバスだとするとFBD2-4chはDDR3-6ch相当。
こんな感じか。
[IMC] ─ 9.6〜12.8GB/s ─ [AMB2(Mill Brook)] ─ 6.4〜8.5GB/s ─ [DDR3]
│ └───── 6.4〜8.5GB/s ─ [DDR3]
├── 9.6〜12.8GB/s ─ [AMB2(Mill Brook)] ─ 6.4〜8.5GB/s ─ [DDR3]
│ └───── 6.4〜8.5GB/s ─ [DDR3]
├── 9.6〜12.8GB/s ─ [AMB2(Mill Brook)] ─ 6.4〜8.5GB/s ─ [DDR3]
│ └───── 6.4〜8.5GB/s ─ [DDR3]
└── 9.6〜12.8GB/s ─ [AMB2(Mill Brook)] ─ 6.4〜8.5GB/s ─ [DDR3]
└───── 6.4〜8.5GB/s ─ [DDR3]
メモリバンド幅は38.4〜51.2GB/s (DDR3-6ch相当)でメモリのキャパシティがDDR3-8ch相当(16枚)になると。
IDF 2009 - World's First Larrabee Demo, More Clarkdale, Gulftown
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3645 ・表題の通りLarrabeeの動作デモがあったわけだが、、、
"Larrabee rendered that image above using raytracing, it's not running anywhere near full performance"という注釈がついている。
あくまでも「ちゃんと動くものがあるよ。開発は順調だよ。」というアピールに過ぎないということで、、、
他社の競合する製品と比較する意図は無いみたいだ。おひさるてきには。
・Clarkdaleについて。
"There's also on-package 45nm Intel graphics, which I've heard referred to as finally "good enough" graphics from Intel."
パッケージレベルで統合されるグラフィックスコアの性能は満足できるものになりそうだと。(やっとIntelからまともなIGPが出てきた。)
ルーマー(希望的観測)→公約 へなったネタ2つ。(既出かも
・"The demo was nothing more than proof of functionality, but Sean Maloney did officially confirm
that Larrabee's architecture would eventually be integrated into a desktop CPU at some point in the future."
Larrabeeもその内CPUに呑み込まれると。
・BloomfieldからGulftownへのアップグレードについて。
"Compatibility is going to be the big story with Gulftown:
it will work in all existing X58 motherboards with nothing more than a BIOS update."
ん、h抜き忘れてた。
Larrabeeに有利なBestケースで285を越えられない、と解釈するのは意地が悪いか。 でもCPUのメモリモデルに縛られている限り GPUの性能向上曲線に追い付けない構図が確かにある気がするぞ。
それじゃ40nm 334mm2の5870にボロ負けだな 倍近くダイサイズあるのに。 2TFlopsじゃ演算性能ですら負けてるからしょうがないか
ARCS002
How To Optimize Your Software For The Upcoming Intel(R)
Advanced Vector Extensions (Intel(R) AVX)
p.6 Sandy-Bridgeのブロック図
気になるのは port-0のAVX-HIGHとport-1のAVX-LOW
256bitを2つの128bitに分割して実行するのだろうか
だとすると現在とパフォーマンスは殆ど変わらない
可能性もある
>>478 のIACAのモデルになっている架空のCPUでは
Nehalemベースにfp-add/mul/shuffleを256-bitにした構成だった
いろいろ統合しちゃって大丈夫なの なんか、コケそうな匂いがするんだけど
ちむなをバカにすんな
>>722 SSEを64bit x2で処理してた期間を考えると妥当じゃないか。
AMDがいきなり256幅でやるCPU出してきたら対応するだろうけどさ。
Si貫通電極がポツポツと実用化されてるが リスクを負ってもMCMを避ける理由がIntelにはあるんだろうな
32nmの出荷よりも前に22nmのSRAMか。 プロセス開発はみるからに好調って感じだな しかし22nmパターンを波長193nmの露光で作ってるってのは 素人からみると驚きだ
32nmのSRAMウェハも2年前のIDFで公開されてるから予定通りだな IBMも去年に22nmのSRAMを作ったけどウェハは見せてないし
クアッド32nmのSandyBridgeが2011年Q1で22nmのIvyBridgeが2011年内か 買い時に迷うな
Clarksfieldのレビュー。
ttp://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3647 C2Qより高性能で省電力。
Intel shows Larrabee doing real-time ray tracing
ttp://techreport.com/discussions.x/17641 >Intel didn't discuss a precise release time frame, but last we heard, Larrabee was due to ship early next year.
シリコンフォトニクス?オプティカルの実用化が迫る。2010年中にサンプル出荷。
ttp://techresearch.intel.com/articles/None/1813.htm >Light Peak consists of a controller chip and an optical module that would be included in platforms supporting this technology.
>The optical module performs the conversion from electricity to light and vice versa, using miniature lasers and photo detectors.
>Intel is planning to supply the controller chip, and is working with other component manufacturers to deliver all the Light Peak components.
心臓部である電気→光/光→電気の変換を行うモジュールは他社任せ、と。(汚いなさすがIntelきたない
まあSATAやUSBで10Gbps以降が見えてきたのは朗報。
>>電気→光/光→電気 レイテンシどんだけ
光ネットワーク事業の一部は2年前Emcoreに売却済みだった
光配線もようやく形になってきたのか スパコンや高性能サーバーからだろうし PCに降りてくるのはまだまだ先なんだろうけど 徐々に置き換えていってPCでもチップ間全て 光で接続する時代が来るかもしれないんだな
上下128ビットが交わる演算が基本的に無いあたり、AVX-HIGHとAVX-LOWに分割するってのも あながち間違いじゃない希ガス。たとえば1クロックずらすとか ただ、ポート構成がどうなってるかってのは別問題で。
元のURLを読めばわかるが、Light PeakはPCの周辺機器の接続を前提とした安価なソリューション。 サーバー向けだともうFibreChannelや10GbEで既に光が使われている。 ソケット間の接続や同じダイ上のコア間の接続に光を用いるのが(広い意味で)次世代の研究。
ちなみにAMDは既報通りならFMA128×2+PERM128という構成 SSE5の演算ユニットを大した変更しないまま使ってる 256ビット化する余裕なんてない 新命令のFMAやIMACを積極的に使うことで性能が伸びる感じやね。 PMADDWD+PADDDみたいな殆ど使わなそうな融合演算までサポートしてるのは要するにそういうこと。 AVXの部分だけの性能だとAMDは不利な可能性高いな
団子ちゃんの予想 はずれたねえ まあ良いニュースな訳だが loadに関してはユニット自体は32bytesでロード可能だけど L1の帯域が48bytes/cycleでネックとな
スカラ演算主体の場合は256bit×1よりは128bit×2のほうがスループット上がる まあ、その辺どう調理するのかは見物だな
ふゅーじょん!ふゅーじょん!
あれ、32nmのクアッドってこんなに早く出るんだ。 デスクトップ用は出ないの?
Westmere-EPは6-coreじゃなかったのか・・・。 4-core版もでるということか?
Xeon 5000系にも2コア版があるから、それとおなじようなローエンド向けバリエーションじゃない?
このサイトは面白い記事も多いが間違いも多い
なんだよ6コア買おうと狙ってたのに周波数低いのね・・・どうすっかなー
AESアクセラレーションの需要を読んで低価格帯から先行投入と見た。
とりあえずSandy Bridgeはvpermil2psが無くなったことでパフォーマンス設計が総崩れなんだが俺的に 256ビットSIMDって用途限られるなオイ GPGPU(笑)よりはマシだけどな
GPGPUが使える局面なら256bitどころではないしね
Turbo boostってIntelの公式クロックアップだとしか思えなくなってきた つまるところ、表に出てるクロックはIntelの最低保証クロックで、 Turbo Boostで常に2Bin上がってるか、上がらないかってのは チップの当たり外れや冷却性能に依存するのかも PCWatch出誰かが微細化すればするほどチップ間の性能のばらつきが出る、 っていってたがもしかしてこれが絡んでる?
>Turbo boostってIntelの公式クロックアップ それ以外の何なのさ 以下別スレ引用 ちなみにIntelのデータシートではターボブーストは基板設計完全透過がウリのようだぜ。 マザーボードの基板設計者からターボブーストの存在は全くみえないし、考えなくてもいいことになってる。
だとすると、今まで以上に冷却性能が大事ってことなのね 常時ブースト状態を保つためには。 そうすると、遅ればせながらケースやCPUファンの冷却性能が 今後とんでもなく性能を左右することになるんだなとカ思ってしまう
マルチコアで全部のコアのクロックあげると消費電力で悲しいことになる 一部のコアだけクロックあげるだけなら消費電力の増大が抑制されるので 電源容量と放熱の両面でまだ何とかなる場合のこすっからい一策
色々な見方があるがNehalemで導入されたものの中でも3指には入る重要な機能
>>758 それでも、最終的に計算が速く終わるなら消費電力の収支は会ってることになるぞ?
たしかNehalem世代では消費リソースと性能向上は1:1以下でないと認可されてないはずだから
>Intel Turbo Boost Technologyが、CPUコアだけに対してだけでなく、内蔵GPUにも適用されることだ。 impressの記事より引用 今後はチップセット等intel系のシステム全体で電力管理して オーバークロックを許容する流れになるんじゃない? 電力管理技術がまさかシングルスレッドの助けになるとは以前は思いもしなかった
Turbo Boostはマルチコア化を進めるためには必須の機能だと思う。 これが無いと、コア数が増えるほど、シングルスレッド性能が落ちることになる。
TurboBoostは、なぜか性能向上ファクタと見なされているが、 ありていに言って、全コア負荷時クロックダウン のことだわな 高性能冷却機構は金かかるから手抜きします そのために全コア働かせる時にはクロック下げます
冷却だけじゃなくて、供給電力の問題もあるんだし、 全コアTBの最大値で動かすなんて無理だろう。 少数のコアのクロック上げたり、パイプラインの充填率低いなら、 全コアのクロックを少し上げたりと、一定の制限の範囲内で 性能を最大限に出せるよう工夫する技術なんだから。
>>763 >全コア負荷時クロックダウン
これマルチコア化の大前提じゃん。いちいち言うことじゃない。
クロック向上できなくなったからマルチコアが出てきて、
今までは1コアあたりのクロックを抑える代わりにコア数で性能向上を維持した。
しかし1コアしか必要ないときはTDPの範囲内で本来のコア性能を出すのがTBだろ。
低レイテンシメモリを大量に繋ごうとしたらコスト高になるから 安く上がる方法で誤魔化します →キャッシュメモリ 全コアフルスピードに耐える冷却や電源はコスト高になるから 安く上がる方法で誤魔化します →たーぼぶーすと
そもそも全コアフルスピードというのが何を意味するのかわからないな。 冷却・電源にコストをかけて上限をあげたら、TBでまたクロック上げる余地が出てくるだけかと。
>>767 流れからして物理的な限界を想定してそう。
現実的なTDPの枠内でやりくりするという考えがありそうにない。
Core2 Q9400よりclarkdale 3.33GHzのほうがずっと速いみたいだし、 一般向けはシングルコア(with HT)の高クロック品でよくね。
>>768 ×現実的なTDP
○現実的なコストで賄えるTDP
Tolapai(EP80579)やCanmore(CE3100)は大失敗でFA?
検索してみると、EP80579は採用した製品があるようだから、 少なくとも大失敗ってほどでもないんじゃないの? CE3100の方は東芝、Samsungが採用予定で製品出てないし、 製品出るときにはCE4100になってるかもしれないけど。
AppleのiTVがあのザマだからな まあIPRNCとかの高密度ブレードサーバなんかでそれなりに使われたが
こっちが軌道に乗るまでネットブックは止められないな
なかなか手厳しい 笠原 >開発コードネーム“Canmore”(ケーンモア)ことIntel Media Processor CE3100は、(中略) >日本や米国では今のところ搭載した製品はリリースされていない。 福田 >Intelはテレビ受像機のベンダーやセットトップボックスのベンダーにマイクロプロセッサ >以外のASSPを販売した経験がないとみられることから、SoCの販売は簡単ではないだろう。 >ASSPビジネスでは、開発者向けにはIDFとは違ったタイプの活動が求められる。製品分野別 >に開発者(潜在ユーザー層)を集め、製品情報や開発情報などを適切に伝える必要があるのだ。
可能な限り安い石を載せて原価を抑えたい国内メーカー(Celeron人気も道理)が そう簡単に採用するわけないべ 東芝はチャレンジャーにも程がある。
UniPhierとかと競合する市場?
基本的にx86なOSを使いたいネットワーク機器向けだな
>TurboBoostは、なぜか性能向上ファクタと見なされているが、 >ありていに言って、全コア負荷時クロックダウン のことだわな 馬鹿過ぎて話にならん
ターボブーストそのものはモバイル版Core 2 Extreme/Quadにも載ってる機能なんで。 つーか、モバイル版はかなり微妙なラインナップだな 【Penryn-QC】 QX9300 2.53GHz*4 / TDP55W / 2.8TGHz*4 Q9100 2.26GHz*4 / TDP45W / 2.53TGHz*4 Q9000 2GHz*4 / TDP45W / 2.26TGHz*4 【Clarksfield】 i7-920XM 2.00GHz*4 / TDP55W / 2.26TGHz*4/2.26TGHz*3/3.06TGHz*2/3.20TGHz*1 i7-820QM 1.73GHz*4 / TDP45W / 2.0TGHz*4/2.0TGHz*3/2.80TGHz*2/3.06TGHz*1 i7-720QM 1.60GHz*4 / TDP45W / 1.73GHz*4/1.73GHz*3/2.40GHz*2/2.80GHz*1 演算ユニットの競合率が高いとHTによる性能向上率も低くなってしまうので 4コア全部使い切れるようなケースでは、場合によってはクロックが落ちた分だけ性能ダウンになりかねない。 ただでさえL2は小さいしL3は高レイテンシなので同クロックでも性能下がるケースは多々有るはず。
>>772 元麻布の記事はCPU購入選択にしか触れていないが、
ソフト開発者にも難しさは生じるんじゃないか?
あえてシングルコアしか使わない状態を狙ったコーディングをした方が
使用時の快適さが優れている、という処理もあるのではないか
なわけねー
>>782 なんかClarksfieldのクロックは最低保証クロックで、
実際は4コアフル稼働でも冷却やTDPが追いついてるうちは
ガンガンクロックアップするみたいなことがあるみたいだが
つまり、920XMでは、2.0Ghzが最低保証クロックで、2.26Ghzが実駆動クロックと
要するに、ノートPCの冷却系の設計が今まで以上に性能を左右する、という
各メーカーの技術力が性能と売り上げを左右するって事かも
でも、Arrandaleのクロックを見てると、下手するとArrandaleのほうが高性能な局面が出てきそうな気配が
もしかすると、Clarksfieldではなく、高クロックのArrandaleをハイエンドに置く ノートPCが出てきてもおかしくないな、とは感じてる ◇Core i7(Arrandale / 32nm / 2-core 4-thread) 620M 2.66-3.33GHz L2=256kB x2 / L3=4MB TDP35W $332 640LM 2.13-2.93GHz L2=256kB x2 / L3=4MB TDP25W $332 LV 620LM 2.00-2.80GHz L2=256kB x2 / L3=4MB TDP25W $305 LV 640UM 1.20-2.26GHz L2=256kB x2 / L3=4MB TDP18W $305 ULV 620UM 1.06-2.13GHz L2=256kB x2 / L3=4MB TDP18W $278 ULV ◇Core i5(Arrandale / 32nm / 2-core 4-thread) 540M 2.53-3.06GHz L2=256kB x2 / L3=3MB TDP35W $257 520M 2.40-2.93GHz L2=256kB x2 / L3=3MB TDP35W $225 まあ、クロックだけ見てるとClarksfieldに配慮して意図的に抑えられてる節はありそうだな
>>785 ノートはターボあんまり当てにならなかったり同じCPUでも機種ごとに実性能違ったりしそうだね
VAIOとかCore2でもスロットリング入りまくりだったりするし全然ターボできなそう
789 :
Socket774 :2009/09/29(火) 02:36:27 ID:QkZfKYZx
>>787 >ノートはターボあんまり当てにならなかったり同じCPUでも機種ごとに実性能違ったりしそうだね
つまり糞設計のノートやTDPぎりぎりの設計のノートだと、実クロックまでしかでずに
Turbo Boostなぞ当てにできなくなると
つまるところ、ノートに1ランク上の冷却系載せることを暗に要求してるのかも
Sandy Bridgeって8コアじゃないの?
そこまでひどくないだろう、Turbo Boostの時はどこかのコアが休んでる時も条件の中にあったはず その場合の余裕を利用してTDP以内(ここが重要)にBoostするんだから、 TDPギリギリ設計のノートでも理論的には大丈夫 効かないって事はTDP以下の設計だと思われ 4コアフルに効いても大丈夫なコアはTDP下げて高く売るだろうしw
もうFoxtonのことを知らない奴が出てきたんだなあ
EISTで痛い目見た人が疑心暗鬼になるのはわかるけどw 個人的には期待してるよ
Sandy Bridgeで俺が求めてること ・1366ピン ・メモリは3ch ・グラフィックコアはいらない ・その代わりキャッシュ増量 これならすごく欲しいのになぁ…
>>744 ミドルレンジから投入みたいなことをいってるから、6コア、8コア以上はそうなるんじゃね。
6-core 12-thread / 8-core 16-thread
・LGA1155
・Dual-Channel
・L3 Cahe 1xMB
ダイ写真みると、メモリインターフェイスの左が空白であいてるように見えるけど、 JasperForestみたいにQPIをそこにつけて、別チップ作る予定なのかな。
>>788 GPUコアがこんなにもでかいのかよ
メインストリームでもGPUコア無し出るよね・・・
むしろメインストリームでは出ないと思うんだが・・・
CPU価格維持の為のチップサイズ増大策だろ 次あたりで100mm2で廉価版までサポートなんて考えていると思う。 でもって、儲からない割りに色々めんどくさいペリフェラルを分離…っと。 メモリ帯域をCPU vs GPUで食い合うので現在の廉価PCと同様の位置づけになるんだろーな。 今回のでも2CPUだともろに普及帯から廉価版に落とせるだけの体力あるだろうし。
今までだってチップセットの大面積占めてたのに誰も気にしちゃいねえ。 まあ最新プロセスじゃなかったけど。
AVX以外はLynnfieldと変わらないような(´・ω・`) 定格周波数を上げるチャンスでもあるが、TDP65W枠に戻してくると思われる。
>>797 メインストリーム以上のユーザーに、
『IntelのGPU』内蔵してほしいなんているわけがないがね。
つか、トリプルチャンネルでCPUだしてほしいなあ
Sandy BridgeのGPUは、せめて現行のGeForce 9400M程度の 性能出るといいけど、どうなんだろうなぁ。
たぶん無理
32nmであのダイサイズでさすがに9400M以下はないと思うけどな いくらドライバが糞で性能を引き出せなかったとしても 倍ぐらいは性能あるんじゃね
>>807 >倍ぐらいは性能あるんじゃね
Intel内蔵なめんなw
>>802 ,803
これデスクトップ買ってゲームもやりたいってパンピーに意味あるの?
オンボのGPUよりマシって位なのかな。
ワンチップにする意味が見えない。
GMAを統合するのは過渡期なんじゃないかな。 最終目標はLarrabeeのようなGPU向きのx86コアを統合して、 全部CPUで処理するだろうし。
コアも全然増えないし、なんかインパクトなくなったから行き詰って統合してるだけのような感じもしなくはない・・・
いまさら4コア以上にコア数増やしたって一般ユーザーには別に利点がないし、 統合することでトータルの製造コストや故障率や不良率が下げられるんならそれに越したことはないね。
結局AMDの主張(Fusion)は正しかったのか
>>809 メインストリーム=ゲームかよw
頭悪そう…
GPU何か気にしない層が大多数だからGPUシェアの半数以上がインテルなんだろ。
何か頭が湧いちゃってる奴がいるな。
メインストリームの意味分かってないやつやゲーム脳が何でこんなとこいるんだよw
俺はGMAの素性は悪くないと思っている 古い製造プロセスで作って安く売ることを重視していたから性能が犠牲になっていただけで
違う意味で言ってるんだろうけど「ゲーム脳」って表現はマヌケに見えるから避けた方が
L3キャッシュがCPU-GPUで共用で使えるストリームバッファとして使えるなら うまくタイルレンダしてやって性能が劇的に改善してウマーなんてこともありうる。 かもしれない
そういうのはAMDに任せときゃーいいの
机上計算だが、22nmになると8コアのLarrabeeが150mm²程度に収まる。 2GHzなら500GFLOPS程度にはなる。 Haswellは256bit FMA×2とすると3GHzのデュアルコアで200GFLOPSは出せるようになる。 x86ワンチップで0.7〜1TFLOPSとか出るようになったら・・・と思うと面白すぎて仕方がない。
Intelはどうせドライバが追い付かないんじゃないの?
ドライバなんていらないから全部触らせろよ
アーキの違うGPUを統合するんじゃなくて、GPU向けのx86コアなら、 3D描画の処理が特にないときは、CPUとして使えるし、 GPUとして性能足りないときは、従来型の大型コアをいくつかを3D描画に使える なんてことがうまく行けば出来るんじゃないの?
お、日本のトップガンの登場か?
まあLarrabeeに関してはソフト屋だけで3000人もいてドライバが書けないなんてこたないだろ タイミング制御が難しいVLIWならともかく、Intelにとって長らく使い慣れたx86命令を叩くだけだ。 ちょっとSIMDがワイドになっただけでソフトの組み方が変わるわけじゃない。 他のGPUネイティブの機械語いじりは地獄だけどな
>>825 くそでけぇwwwwwwwww
対Nehalemでシュリンク率70%程度としても300mm²はあるぞ
逆にGMA?の部分がそんなに大きくないような。。。
日本語でおk
誤答のJPEG見た Dual Core Westmereが <79mm²か Intelの高密度設計技術は化け物か! って、よく考えたらPenryn-6MBで既に100mm²切ってたんだよね なんだったんだろNehalemの巨大ダイは
メモコンが無いからだろ…
Coreシリーズ: GMA X4500系→Larrabee Atom Nシリーズ: GMA 950系→? Atom Zシリーズ: GMA X500系(PowerVR)→次世代GMA
NehalemのダイサイズがLynnfieldより小さいのに高く売れてるって...
Lynnfieldがパフォーマンス〜メインストリーム向けだから仕方なく安く売ってる 安く売ってる分はチップセットに上乗せされてる だからLynnfieldはBloomfieldより安めの設定になってるし チップセットは1チップになったのにマザーはそこまで安くなってない
834 :
Socket774 :2009/09/30(水) 13:03:20 ID:dqIIBmWt
|イスラエルのハアハアで産まれたSandy Bridge に見えた。
あれ、ダイサイズがほとんど変わりないとすると Nehalem同様にCoreMAベースの小規模改良に留まって パイプラインにはあんまり手が入ることもなさそうか シングルスレッド処理も変わらず伸び悩むなら残念だ
失礼、ダイサイズじゃなくて1コアあたりのトランジスタ数
もうそこは理論限界みたいなものだからどうにかなるのを期待しても無駄 フリーランチは終わった これからは日替わり定食
838 :
Socket774 :2009/09/30(水) 15:29:28 ID:z/A4D3mm
今後はチクタクチクタクじゃなくチクタクタクタク…なのか。
Sandybridgeはチクに値していいと思うけどなぁ AVXをSSE系と同等に考えてしまうのはどうも違う気が
来年そうそうにi3i5とgulftownくるんだっけ、 それで、再来年にはsandy-bridgeだと思うんだけど、 その間、つまり来年後半の予定はどんなもの? なにも無し?
その後もアイビーブリッジが予定されてる 今の所22nmまでの技術は出来ていて量産態勢までは順調らしいから サンディが遅れることはないかと。来年秋には出るかもね、最初は32nmだから(再来年は22nmになるが)。
>>843 来年秋に出てきたとして、コア4つのから始まるのかな?
8つとかもでてくるんだっけ?
>>838 >>839 次にアーキテクチャがガラッと変わるのは
オレゴン製作のHaswellって話があった覚えが
マルチコアやAVX対応でしか速くならないってのは
なんだか進化の袋小路に迷いこんだみたいで寂しいな
最近PARROTを聞かなくなったがどうなったんだろうね
>>846 エンコとかを早くしたいのなら、マルチコアでいいわけで。
CPUが単純に高速になる必然はもうほとんどない。
最後の牙城ゲームもいずれマルチコア対応するとすれば、
コアを増やす&効率化=進化、で問題ない。
>>848 > CPUが単純に高速になる必然はもうほとんどない。
このスレにいるのが恥ずかしくなるような、なんたる勘違い野郎だ!
なぜターボブーストが実在しているのか、10年間考慮しつつスレをROMってろ。
冫─' ~  ̄´^-、 / 丶 / ノ、 / /ヽ丿彡彡彡彡彡ヽヽ | 丿 ミ | 彡 ____ ____ ミ/ ゝ_//| |⌒| |ヽゞ |tゝ \__/_ \__/ | | __________ ヽノ /\_/\ |ノ / ゝ /ヽ───‐ヽ / / 将来的にも /|ヽ ヽ──' / < パソコンのメモリは640キロバイトもあれば十分だろう / | \  ̄ / \ / ヽ ‐-  ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ (ビル・ゲイツ、1981年)
アムダールの法則で単純な並列化には限界があるんだっけ 長期的に見ると今後はスカラかベクタかという話になるのかな
OCの常用耐性が伸びてくれのなら別にそれでいいよ。 GulftownでLN2耐性だけでも600MHz以上上がってるし。
SpMTとか動的最適化とかが活用されるくらいになるなら、メニーコアでも性能は 伸び続けるのかもしれないけど、正直微妙な感は拭えないなぁ というか、そういうSpMTの類は、逐次実行向けのスレッドを一本から二本にする だけで十分だろうし
Sandy BridgeってひょっとしてStore Address + Store DataのμOPs Fusion効かなくなった? て言ったら、どのレベルまで最適化進めてるかわかるよな?
言語的には既に 明示的に並列実行するparallel(..;..;..) と 明示的に逐次実行するsequence(..;..;..) と 互換性のためのforループが組み込まれてもいい気がする
それっぽいことやるのがCt
GPUって構造的に細かい制御が苦手だからCPUとはすみ分けるね。 多量のデータを同一アルゴリズムで一括して処理するような用途なら GPGPUが向いている。
CPUでソフト的にGPUをやったらどう?
>>859 性能・効率どちらもGPUとは比較にならない。
そもそも根本的に向き不向きが違う。
GPU信者ウゼエwww
誰が信者だよw GPUはデータプロセッサでCPUはコントロールプロセッサ。 そもそも性格がまったく違う。 どっちがいい悪いって話じゃないんだよ。
向き不向きで語れるほど今のGPUもGPUの仕事を効率的にやってるわけじゃないからね。 消費電力の大半はメモリ間のデータ転送って言われてるくらいだし。 外部バス帯域の引き上げは消費電力を上げるのでキャッシュメモリを増強して ローカルメモリを増やしてタイルレンダするのがモバイル向けでは良く使われてるけど ハイエンドにも通用するナウい手法。 そのうち、スカラCPUとのデータやり取りもネックになって、コア内にスカラユニット搭載とか やるようになる。 CPUはCPUでSIMD命令の拡張とマルチコア化を進めてるので構造的には近づいてる。
LarrabeeがGPUをやるとスカラとベクトルが備わり最強に見える。 逆にGeForceがやると頭がおかしくなって死ぬ。
わろっしゅw
冗談抜きにCUDAのプログラミングモデルの似非「スカラ」は狂ってる。
そりゃータダでTFLOPSが手に入ったらCPU屋さんは商売上がったりだ
>>867 評価用に環境を提供してもらってるんだっけ?
870 :
Socket774 :2009/10/01(木) 09:06:04 ID:s2YMtGaN
Sandy BridgeせめてBIO5を余裕で遊べるぐらいのGPU統合してくれよ・・・
むしろどうせゲフォラデ積むんだから、イラネ。のほうが正しい気がする
872 :
Socket774 :2009/10/01(木) 10:03:58 ID:LH551D2J
>>870 インテルはハードをドライバが足引っ張っているから永遠に無理。
>>870 GPU統合型はメモリの帯域がネックになるから
パフォーマンスは期待出来ないだよ
X-BOXみたいに専用メモリでも乗せないと
熱容量をCPUと分け合うから、あんまり豪勢なGPU載せるのも 寂しい思いをすることになる。
>>874 それならデカいヒートシンクを載せられるようにパッケージ自体のサイズを大き(ry
用途によってメモリのサイズを変えたり、CPUのグレードを変えたりとかの自由度を捨てて
いっそう、メモリ・GPU・CPUをすべて統合してもいいんじゃないかと思ったこともある
そうなると、その統合プロセッサを生かし切れるマザボも限られてくるから、適切なマザボに直結
SSDとかもマザボに直づけしてだな…
モバイル用途にはARMプロ(ry
>>875 つまり75W〜300Wまで乗るPCIeのボードに
メモリ・GPU・CPU・SSDを統合して
どのマザーにも刺さるようにしてだな(ry
単なるCPUボードだろう、それは
その「ボード」の付け替えって、新しいPC買うのと同義じゃねえか
ISAに縛られずにアーキテクチャを一新できるのはGPUの長所だな
ネイティブVLIWを公開してるRadeonは実質縛られてるのかな
団子的にfermiはどうなの? 頭おかしくなって死ぬの?
個人的にはノート用にDRAM混載GPUを作ってほしいのだが。
バCUDA島
>>882 倍精度=単精度/2にしたのは評価したい。
やっぱHPCの需要を求めるならその辺は最低限必要だよね。
問題はCellだ。
Cellは32コア@4GHzで512GFLOPS程度にしかならないんだが、IBMは続投するのかね?
LINPACKでトップ500の最上位を奪われるわけにはいかないからな。
IBMがCellから乗り換えるようなことがあれば、Teslaは長生きしそう。
唐突にあさっての方向からCell持ち出してくるあたり 相当に動揺してるのが見てとれる。 依然としてGPUは所詮GPUだと思うが、成熟期に達してあまり打つ手がないCPUに比べると GPUはアーキテクチャ改善の余地がまだまだいくらでもあるのが面白い。
俺は別にNVIDIAに敵対する必要ねーし 払うものさえ払って貰えるならビジネスパートナーだよ
>依然としてGPUは所詮GPUだと思うが、成熟期に達してあまり打つ手がないCPUに比べると >GPUはアーキテクチャ改善の余地がまだまだいくらでもあるのが面白い。 典型的な馬鹿だなー やってることはGPUの「CPU化」だろ。 迂回経路が違うだけで、性能を追求すれば汎用性とスループットの両方をバランスよく兼ね揃えたプロセッサに行き着く ↑汎用性 →→→Larrabee CPU↑ ↑ ↑ ↑ ↑ ↑ →→→ スループット GPU → って、これはIntelのプレゼンの図そのまんまだな
団子はGPUのCPU化も CPUのGPU化も否定的だと思ったが
Cellの話題を持ち出した意味も頭が悪すぎて理解できてないようだが あんな腐れアーキをゴリ押しでロスアラモスに大量導入させたIBMの政治力はなんだかんだで凄いってことだよ。 もっとも、あの時点でIBMにとって一番コスト当たりの倍精度演算性能が優れてたプロセッサってのは事実だからな ちなみにLarrabeeの場合はx86/x64命令セットとIntel謹製の開発ツールという TOP500においても最大シェアのエコシステムが既にあるので、Cellの後釜を狙う必要など最初からない。 IBMと競業関係にあるHPCベンダーだけでも十分な数は売れる。 仮にIBMがLarrabeeを採用する時にはどのみちIBMはCellを見捨てることになるだろうし
Cellって倍精度強化したバージョンはどうなった?
892 :
Socket774 :2009/10/02(金) 01:48:18 ID:5/nAxaQv
>>849 単一コア4スレッドHyper-Threadingが、いいてことだな。
以前デュアルコアOpteronよりシングルコアOpteronのぜんぜんいいということを聞いたことがある。
>>889 だってさ、Teslaが1.6GHzで動いたとして、スカラ性能は400MHz相当だろ。
ミッドレンジのARM以下だべ?
ベクトルコンピュータのスカラ性能の残念っぷりってスパコンで現役だった時代からそんなもんだったらしいけどさ
まあスカラで使っても「2GHz動作のPentium」になるLarrabeeは
本物のスカラユニットを持たないGPUに対して一定のアドバンテージとなりうるかもしれないね
スカラプロセッサの中でx86の性能上の強みは生き残ったCPUアーキテクチャの実装で現状最強といっても
良いAGUを用いたメモリアクセスを様々な演算に対して畳み込むことができることだ。
無論、LarrabeeのSIMD命令についてもそのルールは適用される。
ああいうフォーマットは固定長命令のRISCじゃ絶対不可能だからな。
>>885 プロセッサあたりの性能なんてTOP500とはおよそ関係のない話なんだが。
具体的な構成が出ている話では11年11月期予定のSequoiaが最大だと思うが、
これに使われるのはたった16core200GFLOPSのプロセッサだ。
GPUとCPUの曖昧化が進むと同時に、モバイルではGPUは旧来通りのGPU機能への回帰が進む だいぶ前に指摘してるけど、IntelはLarrabeeとは別のGMAを新たに開発中だ。 Atom用だろうけどね。 リッチなプログラマブルシェーダ搭載のGPUなんてウルトラモバイルには無用の長物だし。 それも1つの流れ。 プログラマブルシェーダなんて全部x86でやってもいいと思ってる。 シェーダがプログラマビリティを追求すれば究極的にLarrabeeのような「シェーダ機能を持つCPU」になる。 Larrabeeと似たような柔軟な構成のプロセッサになるとしてx86でないことにメリットがあるか?ないよ。 だからこそGPGPUは下らない。
>>894 電力効率は大事だよ。
エネルギー消費大国のアメリカは知らんが。
プロセッサ・ノード間のインターコネクトだってボトルネックあるいはコストになる。
だからコンフィギュラブル・プロセッサをだな(ry
あ、ダイナミックリコンフィギュラブルプロセッサか
DAPDNAって売れてるのかしら。 IPflex社はDocomoのLTE網用の組み込みチップ作ってたな。 こっちのほうがよっぽど大きな需要だが。
FPGAですら使い回しがききやすい単位で専用ユニット化ってのが一つの流れ
機能単位を細粒度化しても大して使い道無い割に パフォーマンス落ちちゃうからね。
TOP500の中でFLOPS/Wattでpower系は上位だからな。 あの手のシステムはプロセッサあたりのFLOPSだけ良ければいいってもんじゃない
>>888 LarrabeeはCPUの汎用性を追求した分だけGPUのスループットを犠牲にしているのを
その図は表現していないな。
Blue Geneなんかは各プロセッサの性能は糞みたいなものだからな、超物量作戦 かわりに並列度が低かったりノード間通信が重い場合は見事なまでに乙るが
帯域幅ではIA32では勝負にならない帯域モンスターのものがある。 FLOPS/Watt ではIA32よりも優れたプロセッサがある。 IA32はよく言えばどちらも酷くない程度に確保、悪く言えば中途半端
>>888 ↑汎用性
→→→Fusion
CPU↑ ↑
↑ ↑
↑ ↑
→→→ スループット
GPU →
さすがに無い物と同列に扱うのはララに失礼
→→→Larrabee CPU↑ ↑ ↑ ↑ ↑ ↑ →→→ スループット ↓ GPU → ↓ Fusion<ゴール!!
SandyBridgeを否定してどうすんだよ
IDFのららびーデモ馬鹿にしてたN厨が見事なブーメランだった件について
>>905 主要ターゲットたる物理演算・科学技術演算は本来、GPUの仕事ではないぜ?
GPUの効率ってそもそも何だ?
ブレてるぜ。
>>907 その例はどっちも同じ方向なんだが?
一般的にはFLOPS数を高めた分だけメモリ帯域が必要になる。
トランジスタの個数に制限があるなら汎用性が犠牲になる。
x86が優れてるのはスカラ演算の絶対性能だよ。
別にFLOPSは高いわけではない。
でも高くないからこそ、てこ入れの余地がある。
それをやるのがAVXの256ビット、LNIの512ビットSIMDだ
データレベル並列度を要求するGPUのようなハードに
ソフトが付いていくのなら、SSEでたかだか128ビット幅でしかないCPUの
SIMDユニットを増強することも同様に費用対効果が大きいよな。
逆に256〜512ビットの程度のSIMDですらパフォーマンスゲインが
得られない演算が、より高い並列度を要求するGPUでの実行に向く理由がない。
GPGPUは最終的にはCPUとGPUのデータ交換がネックになる。 GPUに処理させるという苦行に対してやる気を削ぐだけの CPUのSIMD演算強化をしてやればそれだけでGPGPU市場は廃れる。 なんにせよスカラユニットとベクトルユニット間のデータをオンコア あるいはオンダイでやり取りできるのはトラフィック削減の 大きな決め手となりうる。 だからこそCPUがGPU(というワイドなSIMD)機能を持つ必要があるわけだ。 ディスクリートカード版のLarrabeeは逆にCPUに処理を依頼することなく 粒度の細かい処理を自分自身でこなせる。 GeForceにはCPUが絶対必要なのに、IntelはGeForceを要らない子にしようとしてる。 そろそろNVIDIAも完全に自律動作できるGPU作らないとだめなんじゃね? たとえばGPUだけでWindowsが動くくらいの (どっちかというとLarrabeeが一番それに近い気がするんだが)
N社を要らない子にする目的は 解散後の人的鉱床目当てのような気がする
たかが数十kB程度に収まる要素数しか扱えないのに?オンダイで?うれしいの?へーw
L1に収まりきらない要素はL2とL1のデータ交換がネックになる。 L2に収まりきらない要素はL3とL2のデータ交換がネックになる。 L3に収まりきらない要素はメモリとL3とデータ交換がネックになる。 メモリに収まりきらない要素はディスクとメモリのデータ交換がネックになる。 ターゲットを何処に持ってくるか、どういうデータハンドリングを行うかで 得手不得手が出るだけですね、はい。
再利用頻度の高いデータも低いデータも読んでは書き戻しやってるから 帯域が足りなくなるわけで。 チップ間を跨ぐ時点で狭い帯域とレイテンシがネックになる たとえ小容量でも低レイテンシで広帯域帯域のデータやりとりができるなら それにあわせてデータ処理に対するの時分割の方法を変えるだけだ。 処理単位を細分化してな。 その程度も頭のないやつなら尚更GPGPUは使いこなせない。
ちなみにGT200のスクラッチパッドメモリってさ、NVIDIAの言う 「1スレッド」あたりに換算する1〜2KB程度しかないんだぜ。 アクティブワープ数増やしたらそれよりさらに減る。 それに比べたらLarrabeeの4スレッドで64KB、512bit/clk×2GHz程度の 広帯域で読めるL1キャッシュって随分余裕あるぜ。 (ここは故意にアンフェアな比較をさせていただく) ちなみにいうとLarrbeeの共有分散L2も上り512bit/clkだから L1に収まらないならL2からノンテンポラルロードしてやればいい。 もちろんレイテンシはL1からより大きくなるけどな。
で、いつになったら出るのよ
おお、TDPとは素晴らしい
fermiの整数には期待している
32スレッドを32SPで処理するのだから
その分デコーダが等速になった。 GT200まで・・・1SMあたり8SPで4クロック同じ命令を実行, 2つのSIMD命令を半速のデコーダ1基でデコード fermi・・・1SMあたり32SP(16SP×2クラスタ)で1サイクル毎に実行, 2つのSIMD命令を等速のデコーダ2基でデコード
SMごとにload/store unitが16個つくっていうのはどうだろう。 DRAMへのランダムアクセスが速くなったりするだろうか? Larrabeeのほうがいい?
解り易く書くためにああやってるがGT200から変わってない。ただのScatter/GatherをサポートしたSIMD型LSUだよ。 ロード・ストアは512ビットで、必要に応じてPermuteしてるだけ 512ビット境界を跨いだら2回読んでPermuteだな。 ちなみにLarrabeeも似たような構成。 かつ、ロード字に11bit:11bit:10bit形式みたいな圧縮データの展開およびストア時に再圧縮ができる機能が追加されてる。 100GB./s程度しかメモリ帯域必要ないって理由はその辺りにあるらしい。
あ、GT200まではハーフワープ毎に処理してたから、動作クロックはGT200の2倍速(シェーダ等速)になってるかも。
で、結局、32nmのクロック上がった4コアCPUは sandy bridgeまで出ないのかね? てか、LGA1156のCPUは来年頭のi3 i5でおしまい?
屁呑むといい、ラデオソといい AMDって本当にものを作れないな
>>933 いや、amd厨でもなんでもないけど。
教えてくれよw
少なくともDX11世代ではNVがものを作れていない事実が 表面化しているな。性能にこだわりすぎてでかいチップに しすぎたせいだろうが、プライドより実利だと思うけどねぇ。 GPGPUに関しては正直まとまった量のデータを高速処理 する必要がなければいらない技術だな。整数弱いし汎用性 がないし、用途としては極めてニッチ。ただ、CPUにできない ことを比較的簡単にできるという点では今のところ価値はある。
それは出来そこないを増量しただけの A社製品だから
アムドに買われたのをよく思ってないアチ信者もいるだろうね
AMDは墓場って感じ
>>931 4コアはSandyまでおあずけ確定
ただ、モバイルでもクロックが3Ghzまで上がってミドルハイまでSandyに鳴りそうな気配はしてる
>>939 ありがとう。そっか〜残念。
i5-6xxやi3のスペックみてると32nmはクロック↑と消費電力↓に
期待できそうだから、早く32nmの4コア出てほしいなぁ〜
俺は1366-4コア-32nmがほしい exだけでもいいので倍率自由で出してくれないかな 6コアはいかにも中途半端なんだよな
32nm 4coreはXeonでいいなら高い確率で出るから心配要らん 倍率ロックは掛かるが。
>>942 確率というか、IDFで32nm 4core Xeon出すって発表してたから出る
Xeonでいいのか?
できればトリプルチャンネルのCPUにしてください(><)
Xeonで4コア専用マスクがあるならCore i7としても出回る可能性高いんじゃね?
クアッド程度ならデュアルチャネルでも滅多に飽和しないんじゃないの、と言ってみる
↓そうなんじゃないの?
8コア出るの遅れそうだな
なんで?
Xeonで3.8G程度のを出してくれるんだったらOCなんかしないんだがな はやく1366-4core-32nmでないかな
はやいところメインストリームのソケットを決めてくれんと・・・
メモリーモジュールの世代交代よりも短期間でソケットを変えるのはやめて欲しいな
ソケットころころの悪いくせがなぁ。 これさえなければまだインテル選んでもいいんだけど。
はあ?延々775だったじゃないか
775はCPU出るたびに過去マザー切捨てだったじゃないか
ソケットなんて意味無いってことだな
>>958 旧チップセットはサポートしたけど旧マザーは切り捨てだったんだ。
つまり結局CPU乗せ換えアップグレードは出来ずに
マザーごと買い換えるしかなかった。
このアホ何勘違いしてんの 母板屋さんに言うべきことなのに
で?
とりあえずID:AK6R+kQMは ・ママンメーカー、銘柄を目利きできない ・マイクロコード改造技術がない ということだけわかった
アホ突っ込み乙。 Intel側が電源要求なんかの仕様を変更してるのが原因でマザー側の問題ではない。
LGA775登場以降のTDPが下がっていく時代の(微細化するからアンペアは減り難いが) VRD・VRM要求基準変更はクリティカルな理由にならんよ。
それがクリティカルな理由だったんだがw アンペア増えたしな
で?
>>959 とりあえず挿せや。
起動時ワーニングメッセージ出たり、異なるクロックで動作したりするかもしれないけど
普通に動くから。
正常動作しないかもしれない。だとしても正式対応しているわけではないのでそれが何か? ってもんで。
しかし
>>958 へのツッコミとしては
>>959 は不適切な気がする。
>>958 は旧ソケット切り捨ててもチップセットを対応させた例だろ。
特に今後はSSATA3.0やUSB3など、帯域食いまくりの高性能IFがぞくぞくでてくるから 今のExpress Gen2 x4なDMIでは耐え切れないでしょう どっちにしても新IFかQPIを使う羽目になるんじゃないの? なんかLynnfieldもSandy BridgeもなんだかんだでQPIはダイについてるわけだし
あと、LGA1156って、QPI用の電気接点がすでに予約してあるという噂を聞くんだけどなあ 1155で有効化して、チップセット接続に使われても驚かない
それはJasper Forestでプロセッサ間インターコネクトで使われる
つまり Windows8が出るのは 15年後か
128ビット化させた時の旨味ってコンシューマーにあるの?
>>978 このライターは「漢字は2byteコードだから16bit CPUじゃないと」という
言い草がどれだけバカにされたか知らんのか
結局問題になるのはメインメモリ量の壁だけだな
128bit演算を多く使うような謎システムには効果あるはず
大原の連載のはずなのに…高梨遊って誰だよ
詳しい理由書いてないけど、当初はペンネームで書いていたのが、 途中で本名で書けるようになったらしい。
>>981 PS2のエミュレーションですねわかります
仕事上ではインメモリDBのような、お高いソリューションを提案する立場だけど 会社のクライントPCはXP 32bitだし、自宅PCも32bit×3台。
ビット数増えると多倍長演算・大きなビット配列・固定長memcpyあたりが早くなるのか? マルチコア以前の知識だけど。
>>987 128bitなんてケチくさいこと言わずに256bitまで行こうぜ。
でも従来の32/64bitレジスタと命令セットは互換のために残した方がいいだろう。
256bit拡張命令セットの名前は……そうだな、AVXてのはどうだろう。
いや、固定数多倍長用の拡張命令セットがあるのが一番だから。ビットが増える毎にopコード伸びるとか勘弁だから。
つまんね
>>985 PS2の128ビットってのはデータバス幅とSIMDユニット(Float×4並列)
要するにPentium 4と同じ
大原たんは何でこんなにアレなの? AMDの記事書いてる時は生き生きとしてるのに
その昔、80386SXというCPUがあってだな。
64ビットって16EBまで対応できるんじゃなかったっけ 64ビットのアドレス空間で足りないとか・・・一体いつの話だよ 16ビットが32ビットになったときとは事情が違うぞ Windows 95が出るまでの時点で20〜24ビットくらい普通に使ってたからな
まあAMD64は48bitしかアドレス線がないわけだけど。
SMPで512ソケットまで対応してるItaniumでも実装されてる物理メモリアドレスは50bit(1PB)だしな 1ソケット当りのメモリスロット数を64と凄く多めに見積もっても512ソケットで16EBを達成するには524288GB(512TB)のメモリモジュールが必要
>>995 256TB
HDDだとそのうち到達しそうだが、全部メモリマッピングしなきゃだめなの?
物理アドレスは52bitじゃなかったか?
アドレス空間と容量は倍々で増えるんだけど、アクセス帯域はそうはいかないんだよね。 このギャップが足止めとなって、32bitの壁はかつての16bit以上に強力に立ちはだかるかもしれない。 たとえば従来型のメインメモリ32GBのシステムより、貫通電極で広帯域接続した オンチップメモリ2GBのSoCの方が安くて高性能なら、 PCはNetbookやMIDに駆逐されてもおかしくはない。
○ O o ,,.. '"´ ̄ ̄ ヽ 。 / ヽ ,' ,、 ─- ', ! 、 ,.i- i ハi,;-ァ!、|li ト、ヽゝ i i _i !,-;!、 ':,_rハF|、、\ ,レVLi..ハ_r! 、 " |_l、"`゙、゙ヽ `''"i.八" _ ,E!ノ"リ!゙ ゙゛ 《 (ヽ,,、__,,.. イ リl ,. < Yノリ'´l/!// ゙ヽ /!ヲi !/ /,F! / i / i l l /! l / ! ∧ l | |' .l l i /l と思うアルルゥであった
1001 :
1001 :
Over 1000 Thread