【IT】データセンター 室温38度超でもOK--インテル[12/01/05]

このエントリーをはてなブックマークに追加
1やるっきゃ騎士φ ★
ソースは
http://www.sankeibiz.jp/business/news/120105/bsk1201050502002-n1.htm
http://www.sankeibiz.jp/business/news/120105/bsk1201050502002-n2.htm

世界最大の半導体メーカー、米インテルは、顧客に対してデータセンターの室温が
これまでより上がっても、サーバーなどの機器は大丈夫だと伝えている。

サーバーやコンピューター記憶装置は、熱による誤作動を防ぐため、セ氏18度から
21度に室温が保たれた部屋に設置されていることが多い。
そのために必要な空調コストは年間で260億ドル(約1兆9934億円)に達する。
インテルによると、このような装置は現在地球の電力の1.5%を使用しているが、
2014年には倍増する見通しだという。

インテルのマーケティングマネジャー、ジェイ・キャスサンドラ氏は、
新しいソフトウエアとハードウエアを利用し、何が熱く何が熱くないかについて、
より詳細な全体像を得ることで、データセンターは一部のコンピューターに冷却作業を
分担させることができると述べた。この方法をインテルが販売する他の技術と合わせて
使うことで、室温をセ氏38度以上にしても大丈夫だという。

米調査会社IDCのアナリスト、ケイティー・ブロデリック氏は
「長い間、データセンターは人間にとって快適な温度に維持されてきた。
それがわれわれにとっての基準だったからだ。だが、サーバーにはそれを大きく超える
力がある」と指摘した。

インテルにとって、この新技術は新たな収益源になるほか、
顧客のコンピューターメーカーの囲い込みにつながる可能性がある。
インテルの半導体は世界のサーバーの9割以上で使われている。
インテルの調べによると、年間の平均室温を5度上げると、
年間で21億6000ドルの電気代が節約できる。

米フェイスブックは経費削減を目的として、すでに一部データセンターの設定温度を
上げた。インテルのデータセンターではセ氏33度に設定している所もあり、
67%の消費電力削減につながったという。それでもサーバー所有者の心配は根強い。
インテルはデル、NECといったメーカーと協力して、高温での作動を保証する
パソコンの販売に取り組んでいる。

インテル製のソフトウェアとハードウェアだと、
パソコン上で消費電力とアクティブな作業による負荷を表示させ、
機械が最も効率の良い状態に調整することができる。
既存のソフトウェアだと、作業レベルと使用電力を確認するまでしかできない。

キャスサンドラ氏は「ある時点で起きていることが特定できないからといって、
データセンター全体を冷やしておくという考え方は非常に非能率的だ」と述べた。
(ブルームバーグ Ian King)

-以上です-
2名刺は切らしておりまして:2012/01/05(木) 08:40:30.58 ID:AlkXxQBQ
ステマ
3!omikuji!dama:2012/01/05(木) 08:41:39.19 ID:26q/qWJL
夏寒く冬暑い
4名刺は切らしておりまして:2012/01/05(木) 08:43:25.65 ID:0mf7oWPo
つまり「インテルチップは大丈夫ですよ」という意味ではないのか。
インテル指導のコンサルで建てたデータセンタなら
サーバラック内だけで廃熱処理するので省エネですよ、
って、NTTやらIBMやらどこもやってますがな
5名刺は切らしておりまして:2012/01/05(木) 08:52:07.37 ID:HpgjaPYN
と、いうか、今時のIDCの潮流はこんなもんだよ。
6名刺は切らしておりまして:2012/01/05(木) 08:54:03.98 ID:zbZvtG0w
Googleの論文であるね。
50度(40度だったか?)まではHDD含め各パーツの故障率は変わりませんでした。
っての。数千台規模で複数年の統計データが示されていたと思う。
7名刺は切らしておりまして:2012/01/05(木) 08:54:04.97 ID:fTD/GYJS
早く壊れて更新して欲しいんだな
8名刺は切らしておりまして:2012/01/05(木) 08:55:40.78 ID:P2/xRUyC
データセンターはダムの近くにあったからな・・・
9名刺は切らしておりまして:2012/01/05(木) 08:56:29.99 ID:RC2AMyQP
管理者にとっては


冬は暖か、夏は地獄


てこと?
10名刺は切らしておりまして:2012/01/05(木) 08:57:51.78 ID:/P9bE2QV
本来こういうのは仙台とかもっと寒いところに
あるべきなんだなぁ
11名刺は切らしておりまして:2012/01/05(木) 08:58:45.17 ID:qXd+NPel
HDD温度とコア温度がキモ
サーバの放熱の性能が確保されて
熱抵抗が十分低ければ、
室温38度で、HDD42-3度とかなら、まったくOKだろう
12名刺は切らしておりまして:2012/01/05(木) 08:59:36.95 ID:QKCAHBZv
>>10 さくらが石狩にDC作ったぢゃん
13名刺は切らしておりまして:2012/01/05(木) 09:04:50.85 ID:6V/Rmq2X
発生する熱を、何とか電気に変換して再利用して回せば、さらなる電気代節約に
なると思うんだが...まだまだ技術が追いついてないわ。
14にょろ〜ん♂:2012/01/05(木) 09:06:51.35 ID:aQMFGfwx
38度じゃ これまでの放熱性能のままじゃだめだろ?
ハ〜ドそのものの温度は体温と同じで何ら問題ないだろうけどさ

でもIT土方のおまえらは 最悪だなw
15名刺は切らしておりまして:2012/01/05(木) 09:09:19.44 ID:sfODor8f
>>6
でもパーツの温度と室温はちがうしな・・・(´・ω・`)
16名刺は切らしておりまして:2012/01/05(木) 09:10:26.26 ID:nWG5KNr5
電解コンデンサは温度が10度上がると寿命は半分になるって聞いたぞ
17名刺は切らしておりまして:2012/01/05(木) 09:12:46.16 ID:pz+Nyq8/
メンテナンス要員は原発労働者並みの入室時間制限つけないと熱中症で死ぬぞ
18名刺は切らしておりまして:2012/01/05(木) 09:13:46.85 ID:sfODor8f
とりあえず今のうちのcorei7 は20度、HDDは24度
部屋寒すぎる(´;ω;`)
19名刺は切らしておりまして:2012/01/05(木) 09:15:15.83 ID:dqechij7
UPSの類は別部屋の話
20名刺は切らしておりまして:2012/01/05(木) 09:16:25.74 ID:lDaUAjuG
チップ温度と室温を一緒くたに書いてる内容の時点でうさんくさい

50年前の技術雑誌ならまだしもwwww

室温100度でもチップ表面が40度ならなんも問題じゃないだろうが
21にょろ〜ん♂:2012/01/05(木) 09:16:43.90 ID:aQMFGfwx
>>6
温度だけなら 人肌あたりが一番故障率低かったはず

>>11
俺のノ〜トPCは 室温38度でHDD45度くらい
今は室温20度でHDD28度くらい

問題はCPUなんだよね
室温40度で CPUの最高が70度だったわ 
CoreDuoは100度まで耐えられるらしいけど・・・最近のxeonだと70度じゃ無理でしょ
室温20度でも 最高62度くらい。
まぁファンが駆動されるせいかどんな温度でも平均は不思議と55〜58度くらいなんだけどね
22名刺は切らしておりまして:2012/01/05(木) 09:24:12.48 ID:/emHxFoR
うちの会社のデータルームはすでに25度設定になってるわ。
なので、割と暑くうるさい。

まぁ、オペレーションルームはデータルームの外にあるから
通常業務はそっちでやってるけど、やっぱ入ってやらないと
いけない作業もあるからなぁ。
23名刺は切らしておりまして:2012/01/05(木) 09:28:53.52 ID:+ShIksjb
部屋を冷やすんじゃなくて機器だけ冷やせば良いんだよな
ここ数年はマシになってきたけど、コンピュータ関連ってエアフローの酷いものが多いね
24名刺は切らしておりまして:2012/01/05(木) 09:30:46.54 ID:/emHxFoR
>>23
もう数年前からラックマウント自体を冷やすものはある。
部屋全体を冷やすなんて事はしてないだろ。
25名刺は切らしておりまして:2012/01/05(木) 09:32:27.25 ID:JtDVwq3J
結局、何かを買えってことだよね
26名刺は切らしておりまして:2012/01/05(木) 09:34:13.40 ID:/emHxFoR
>>25
大概の会社はサーバーマシンはリース契約だろ?
リース契約更新時に変えるだろ、普通。
27名刺は切らしておりまして:2012/01/05(木) 09:34:51.21 ID:Mefsl532
高温というか、通常気温でのiDCは流行りだね。
気になるのはそこで壊れたハードウェアの交換なんだが…
保守がボイラー工みたいな仕事になんのかw
28名刺は切らしておりまして:2012/01/05(木) 09:35:02.31 ID:pDMPJLF4
CPUはな。他の部品はどうあんんだろ?
29名刺は切らしておりまして:2012/01/05(木) 09:36:26.11 ID:dqechij7
目的はクラウド化の費用を下げたいのだろうな
30名刺は切らしておりまして:2012/01/05(木) 09:36:55.73 ID:5UNWBHOe
アレニウスの法則には勝てないでしょ
31名刺は切らしておりまして:2012/01/05(木) 09:39:42.43 ID:3LJj5r9Z
サーバーの38℃線か
32名刺は切らしておりまして:2012/01/05(木) 09:40:00.35 ID:/emHxFoR
>>27
今はブレードサーバー系が主流になりつつあるから、
ユニット交換ぐらいですぐ復帰出来るでしょ。
1Uをセコセコ入れ替えてるようなところは最初から
お呼びじゃないと思うよ。
33名刺は切らしておりまして:2012/01/05(木) 09:45:25.37 ID:VctThgRn
でもCPUとかHDDの寿命は確実に短くなる気がするわ。
34名刺は切らしておりまして:2012/01/05(木) 09:48:13.38 ID:/emHxFoR
>>33
最低3年もちゃ良いって考えでしょ。
35名刺は切らしておりまして:2012/01/05(木) 09:48:45.90 ID:qXd+NPel
以前サーバー室のエアコンが故障したときは
ドアを全開で、ありったけの扇風機で風を送り込んだけど
無理だった。
 
いつもは凍死しそうな部屋が、そのときは
熱中症で死にそうになった
36名刺は切らしておりまして:2012/01/05(木) 09:55:29.35 ID:63xYOuHq
人間が死んじゃいます・・・><
37名刺は切らしておりまして:2012/01/05(木) 09:56:22.06 ID:Mefsl532
>>32
どうでもいいけどブレードサーバは土地の高い日本ぐらいじゃないの?
アメリカ人が使ってる気がしない。
まあ奴らは1Uサーバ単位でもブレードと同じ感覚で入れ替えるだろうけど。
38名刺は切らしておりまして:2012/01/05(木) 10:00:29.23 ID:/emHxFoR
>>37
わざわざ日本だけのためにブレードサーバーを開発してるとか思ってるの?
ブレードサーバーのメリットを考えてみればそんなアホな事言わないと思うけど。
39名刺は切らしておりまして:2012/01/05(木) 10:05:27.12 ID:UQbuqAKU
人が持たないw
40名刺は切らしておりまして:2012/01/05(木) 10:07:06.23 ID:qXd+NPel
38度で働かされるようじゃ、本当の土方なみ
41名刺は切らしておりまして:2012/01/05(木) 10:38:18.84 ID:FCYMSm4c
ブレードのメリットってなに?
調べた所省スペースが一番のメリットとは分かった。
42名刺は切らしておりまして:2012/01/05(木) 10:56:23.93 ID:oFbtdh7c
データセンターとサーバーセンターはどう違うんかな
43名刺は切らしておりまして:2012/01/05(木) 11:05:45.68 ID:ERHaiz4f
HDDコントローラICが高温で壊れると知りながら販売していたf通製HDDが
夏季に大量死し、ネットでも大騒動になったことがあった。

もともとHDDは高温に弱い。
44名刺は切らしておりまして:2012/01/05(木) 11:08:24.71 ID:qXd+NPel
急激な温度変化もやばい
「冷たい状態から起動」とか
「熱くなってから、あわてて冷やす」を繰り返すと短命
45名刺は切らしておりまして:2012/01/05(木) 11:57:42.92 ID:SxXJzHo+
外気→フィルター→コンピューター→外に排気

これでいいんじゃないの?
46名刺は切らしておりまして:2012/01/05(木) 13:03:55.96 ID:tAArog5h
HDDからSSDに移行させたいインテルのステマw
47名刺は切らしておりまして:2012/01/05(木) 14:17:32.30 ID:/emHxFoR
>>41
1CPU当たりの消費電力もブレードサーバーのメリットだよ。
後、1CPU当たりのコストダウンもメリットではある。
48名刺は切らしておりまして:2012/01/05(木) 15:09:35.77 ID:DtkNSfdx
インテルはさっさと水冷タイプのサーバーセンターの提案をしろよ
今のようなエアコン地獄がこのまま続くわけがない
49名刺は切らしておりまして:2012/01/05(木) 15:11:26.01 ID:bgTJfF2t
むしろエアコンをブレードサーバ内に直結したほうが楽で効率的のような
水冷は事故った時全部アボンするから難しいだろうな
50名刺は切らしておりまして:2012/01/05(木) 15:51:29.41 ID:3jlzFNo/
俺の会社では、サーバールームには、神棚があり、その中にアマテラスちゃんと
神田明神と豊川稲荷のお札が入ってる。
いつも何でかなと思うが、サーバーが落ちないよう祭っているのだろうと、勝手に
解釈している。
御神酒とか榊は誰が交換しているのだろうか。
51名刺は切らしておりまして:2012/01/05(木) 15:53:19.68 ID:/emHxFoR
>>49
だから、そんなのはとっくにあるし、やってるっつうの。
52名刺は切らしておりまして:2012/01/05(木) 15:57:42.87 ID:Ryl9fTMm
熊谷でもOK!
53名刺は切らしておりまして:2012/01/05(木) 15:58:53.44 ID:fp0HTRaJ
ええ事だけど、本当にそんなにサーバ&センタって必要かな?
日本がやらなきゃアジアが取り返してやるだろうけど。

でも、ネットがパンクしたり、一般ユーザーの料金が上がったり、世界中に原発が必要になるんじゃないかな。
54名刺は切らしておりまして:2012/01/05(木) 16:07:42.77 ID:/emHxFoR
>>53
何を言ってるんだ?
55名刺は切らしておりまして:2012/01/05(木) 16:15:18.10 ID:e2C4K4Qn
廃熱で熱帯植物とかの栽培すれ
56名刺は切らしておりまして:2012/01/05(木) 16:19:22.15 ID:fp0HTRaJ
センタ内が寒冷地獄から激熱地獄になるのか。
北海道とかにつくりゃいいわけか。
エンジニアは道内かTPPで調達だし。
57名刺は切らしておりまして:2012/01/05(木) 16:25:17.56 ID:c81xuz6i
>>40
深刻なトラブル時に熱中症で死亡する人が出ても不思議じゃないね
人間用の給水設備がいるな
58名刺は切らしておりまして:2012/01/05(木) 16:29:15.05 ID:fp0HTRaJ
>>57
工事業者はセンタの裏口から入って、表側にある販売機を使えない事が多々あるね。
今でも水筒持参だな。
59名刺は切らしておりまして:2012/01/05(木) 17:04:14.29 ID:ptgEHVDP
問題は熱暴走しないかじゃなくて、ハードトラブルを防ぐために製品寿命を下げないかなんだけどな
サーバー用M/Bなら耐熱温度の大きい個体コンデンサじゃなくて一般的な電解コンデンサ使ってる製品も多いし
HDDだって大量に使ってるわけで

そうした部品が室温が上がると製品寿命が数分の一になるってのは昔から言われてきている事なんだけど

プロセッサの稼働しか頭にないIntelならこんな事言い出してもおかしくないけど、現場は認めないよ
60名刺は切らしておりまして:2012/01/05(木) 17:10:43.52 ID:/emHxFoR
>>59
知ったかはよせ、アホたれ。
61名刺は切らしておりまして:2012/01/05(木) 17:18:17.40 ID:ptgEHVDP
>>60
否定するなら根拠を示そうぜ
うちの新入社員でもできるよ
62名刺は切らしておりまして:2012/01/05(木) 17:26:39.56 ID:mc3EtDjC
その昔まだ大学生だった頃
大学で数少ない空調の効いいた部屋が
電算処理室だったな。
電算部だったオレは部活と称して
そこに入り浸ってたのはいい思い出。
63名刺は切らしておりまして:2012/01/05(木) 17:36:41.88 ID:W3Y2b5He
作業員の汗で故障しそうだ
64名刺は切らしておりまして:2012/01/05(木) 17:46:39.26 ID:qXd+NPel
チップ内に小さい熱電対をたくさん組み込んで
熱を吸い取るCPUを作ればいいのに
65名刺は切らしておりまして:2012/01/05(木) 18:05:51.36 ID:2hExP3F2
>>47
1CPU当たりの消費電力はIAサーバと同クロックならば変わらんだろ。
1CPU当たりのコストダウンはIAサーバと比べればメリットがあるのは理解できる。
HPやIBM、Dellのブレードも安いしね。

ただし、ブレードのデメリットはなんつっても相互接続性の問題。
10Gネットワークとかだと上位スイッチの選定も縛られるし、同じことがストレージ
との接続にも言える。最終的にはお高くなるという現実。
日立のブレードシンフォニーに至ってはVMwareのバージョンすら縛るし。
(日立はハードウェアレベルでの仮想化機能があるから)

ほかに、HPやIBMがメリットの一つに掲げているブレードサーバの冗長性は
メリットほとんどないよな。
仮想化基盤がこれだけ普及すると、IAサーバを並べてもブレードと同じ冗長性が
ブレードよりローコストで実現できる。

SeaMicroみたいなソフトウェアで冗長してね的なブレードならば集約化の
メリットもあるが、やっぱ、省スペースだけでしょ、HPやIBM、Dellのブレードの
メリットってw
66名刺は切らしておりまして:2012/01/05(木) 18:08:43.12 ID:Lt7L0kME
38度まで大丈夫なら、ほとんどの所では、
換気だけで済むわけか。

本当に寿命も大丈夫なら、
相当消費電力抑えられるな。
67名刺は切らしておりまして:2012/01/05(木) 18:13:28.23 ID:YoMzEO9/
地下にサーバールームを持っている会社もあるね。エアコンの電気代を節約できるそうだよ。
68名刺は切らしておりまして:2012/01/05(木) 18:25:53.76 ID:wlDB0Lrv
38度とかCPUの前に人間がダメになるだろw
せめて30度にしとけ。
69名刺は切らしておりまして:2012/01/05(木) 18:26:45.95 ID:r9Vor2vm
経験的に壊れるのはコンデンサで、
半導体が壊れやすいと感じたことはないから、
この発表は意味ない気がする。

電解コンデンサだと、10度上がると2倍速く劣化するそうだし。
70名刺は切らしておりまして:2012/01/05(木) 18:30:02.00 ID:421djTXU
箱の中が50度超えたら、一気にパーツがダメになる気がする。
ノートなんぞは消耗品・・・
71名刺は切らしておりまして:2012/01/05(木) 18:30:44.19 ID:Lt7L0kME
電解液使わないポリマーコンなんてのも増えてきているようだが、
まだコストが高いかな。
72名刺は切らしておりまして:2012/01/05(木) 18:34:58.26 ID:hFHjZHRC
>>67
防水をちゃんとしてないと、水害で水没する
非常用電源にポンプで十分なんだろけど
73名刺は切らしておりまして:2012/01/05(木) 19:26:02.21 ID:WhuBaPZJ
気温38度で大丈夫とかじゃなくて、温度変化時の平均故障率の変化とそれに必要なコストと、
空調設備の電力消費で削減できるコストを定量化して示さないと顧客は判断できないだろ
インテルとか聞いたことない会社だけど、こんな子供みたいな提案をしてるようだとどうせ
長くない会社なんだろうな。
74名刺は切らしておりまして:2012/01/05(木) 20:02:41.96 ID:Lt7L0kME
>インテルとか聞いたことない会社だけど、

おいおい!!
75名刺は切らしておりまして:2012/01/05(木) 20:27:27.78 ID:eSmq5y9D
最近は、この設備系統をトレーラーコンテナに収容し、設置ではなく設営させる方式で運用を考えてるようだよ
だから38度なんて言葉が出て来るんじゃないかな
76名刺は切らしておりまして:2012/01/05(木) 20:33:44.49 ID:0eNXnshn
10℃半減説で他の部品の寿命が1/4になる?

77名刺は切らしておりまして:2012/01/05(木) 20:40:29.56 ID:/JD7mrcm
砂漠の地表に太陽電池
熱の届かない地下にデータセンターっていうのが一番いいのかもな
78名刺は切らしておりまして:2012/01/05(木) 20:50:58.35 ID:1ueaLMpz
>>30
半導体自体は10億年ぐらいの寿命なので
法則をつかっても1000年は大丈夫
79名刺は切らしておりまして:2012/01/05(木) 20:58:01.95 ID:3klrgy6Y
Googleの論文であるね。
50度(40度だったか?)まではHDD含め各パーツの故障率は変わりませんでした。
っての。数千台規模で複数年の統計データが示されていたと思う。


そうなのか!
80名刺は切らしておりまして:2012/01/05(木) 22:01:07.28 ID:cAfdM2pl
半導体とかはいいだろうけど、
大量に使われてる電解コンデンサはどう対策するんだろう
全て固体にするのか、それともサブユニット化して交換しやすくするのか
もしくはユニットの寿命自体を短く見積もるのか
81名刺は切らしておりまして:2012/01/05(木) 22:12:08.28 ID:uWG4Dm7Y
ぐぐるさんは基板自前で開発したもの使ってるから、
一般のサーバーと同じ考え方していいかわからん。
82名刺は切らしておりまして:2012/01/05(木) 22:29:23.61 ID:RkrHaEsH
38度の部屋でサーバ管理なんてしたくないぞ
省エネと称して、冷房を切る企業が必ず出てくる
83名刺は切らしておりまして:2012/01/05(木) 22:32:17.32 ID:eSmq5y9D
むかしの数少ない先輩曰く、サーバールームで常駐して寒すぎて風邪引いたもんだ〜
とか武勇伝も無くなるのかな?
84名刺は切らしておりまして:2012/01/05(木) 22:36:42.61 ID:zqD75MFS
昔の汎用機のマシン室みたいに、
ガラス張りで、オペレーター室とコンピューターの置いてる部屋に別れてて、コンソールだけオペ室に置くのか?
85名刺は切らしておりまして:2012/01/05(木) 22:38:35.28 ID:zqD75MFS
温度いっていにしとかないと、
湿度変化で結論するだろ。
86名刺は切らしておりまして:2012/01/05(木) 22:39:04.23 ID:8FiQDYV3
長友オワタ
87名刺は切らしておりまして:2012/01/05(木) 22:43:06.97 ID:1ueaLMpz
つか
ケース内の温度を38度に保とうとすると
外気はやっぱり25度になるんじゃないのか?
88名刺は切らしておりまして:2012/01/05(木) 22:44:17.07 ID:mKftkk1o
>このような装置は現在地球の電力の1.5%を使用している
DCの空調だけでそんな電力使ってるのか。
89名刺は切らしておりまして:2012/01/05(木) 22:45:52.26 ID:8Gf8Odrk



★Miwon Birthday Party 2010 1
ttp://www.dailymotion.com/video/xk0ws3_miwon-birthday-party-2010-1_fun
★Miwon Birthday Party 2010 2
5:40あたりから「お金が足りないから銀行へいって持ってこいと美元から電話が来た」と高嶋が暴露
ttp://www.dailymotion.com/video/xk0ws7_miwon-birthday-party-2010-2_fun
★Miwon Birthday Party 2010 3
7分30秒頃に、ダンスに誘う嫁の手をふりほどく政伸ww
8:27あたりから「家族が増えてたらいいな」という美元にひきつる高嶋政伸
ttp://www.dailymotion.com/video/xk0ws9_miwon-birthday-party-2010-3_fun

651 :名無しさん@涙目です。(チベット自治区):2011/09/18(日) 19:18:48.36 ID:z93PuI9g0
いままで 重 大 な 勘 違 い をしていたことに気づいた。
この事件を時系列で言うと、
「乱痴気パーティーが先、暴力沙汰のケンカが後」と思っていたが逆なんだな。
ということはだ。
離婚を言い渡され、寝室が別になり、殴り合いのけんかをし、それを録音したくせに
いけしゃあしゃあとパーティー開いて、土壇場になって足りない金を持ってこさせ
「子供が欲しい」などと公言したわけだ。
小説か映画にでもありそうな恐怖だなこれは。 他にも勘違いしていたやついると思うから、一応書いとく。

90名刺は切らしておりまして:2012/01/05(木) 22:46:46.79 ID:OEKCia3d
ITが地球温暖化の根源www
91名刺は切らしておりまして:2012/01/05(木) 23:03:22.50 ID:+jyCteVI
太陽光を電気に変える太陽光発電の次は
簡単なシートかなんかで伝わった熱を電気に変える熱発電が必要

熱を電気に変えて・・の過程で冷却ができるはずなんだけど
そういうの作ってよ
92名刺は切らしておりまして:2012/01/05(木) 23:06:52.10 ID:JtDVwq3J
冷たい外気をマシンルームに取り入れ冷房を節約するのはよくあるが、
マシンの廃熱でオフィススペースなどを暖房するのはあるんだっけ?

うちの会社、暖房ケチりやがったから、マシンルームの暖かい空気を
引っ張ってこようかと考えている・・・
93名刺は切らしておりまして:2012/01/05(木) 23:09:03.34 ID:bImFKb3d
CPUやボード、チップは大丈夫だろうけど、HDDがどうしても気になる
94名刺は切らしておりまして:2012/01/05(木) 23:13:46.20 ID:/JD7mrcm
機械部品使いまくり壊れまくり電気食いまくりのHDDなんて使わなくなるだろ。
どんどんSSDに置き換わっていくよ。
95名刺は切らしておりまして:2012/01/05(木) 23:18:34.44 ID:Y5nnT6Wh
>>3
この時期はサーバルームの方が暖かいもんなw
96名刺は切らしておりまして:2012/01/05(木) 23:24:14.35 ID:ZLucCoDv
>>1の言ってる内容がイマイチ分からない
温度管理で一番問題になるのはHDDなのは明白だろ
要はHDDは高温下でも大丈夫だと分かったってことなのか?

グールグルのデータセンターの例は間違ってたってことかよ
97名刺は切らしておりまして:2012/01/05(木) 23:30:20.56 ID:xxDtdl2N
IntelだからSSD使えということかもw
98名刺は切らしておりまして:2012/01/05(木) 23:35:50.42 ID:fp0HTRaJ
>>92
マシンから出てくるチリって嫌じゃね?
フィルタ通せればいいだろうけど。
99名刺は切らしておりまして:2012/01/05(木) 23:36:07.20 ID:yxKyX//6
室温38℃と言っても、サーバ内部まで均一に38℃じゃないと駄目だろうな
普通に使って室温38℃なら筐体内部は相当な温度になるだろう
熱に弱いHDD温度をいかに冷やすかだな
100名刺は切らしておりまして:2012/01/05(木) 23:41:28.03 ID:DDP1u5EA
Intel製で買っていいのはCeleronだけ
他は全てボッタクリなので買ってはいけない
101名刺は切らしておりまして:2012/01/05(木) 23:42:58.11 ID:quzAJZ9v
38度までオッケーなら街中避けて換気しっかりしたらいいな
102名刺は切らしておりまして:2012/01/05(木) 23:49:08.47 ID:Ih3r5+TO
>>99
あまりに無知すぎる

機内の排熱能力が上がったから室温の底上げにも耐えられるって話だぞ

も少し知識を深めてからしったかしろよ恥ずかしい
103名刺は切らしておりまして:2012/01/05(木) 23:57:07.67 ID:yxKyX//6
言ってること同じじゃね?w
104名刺は切らしておりまして:2012/01/06(金) 00:03:47.48 ID:4eA5kSzn
>>96
グーグルもインテルも言ってる事同じだぞ?
105 忍法帖【Lv=40,xxxPT】 :2012/01/06(金) 00:14:38.12 ID:OLKpKaCA
よし、暖房増強して38℃にするぞ!
106名刺は切らしておりまして:2012/01/06(金) 00:34:13.20 ID:a6umbnkd
107名刺は切らしておりまして:2012/01/06(金) 00:55:19.35 ID:YjBs+N6s
>>65
hpブレードだと、flex10などのバーチャルモジュールも、ブレードの魅力じゃない?
10gの中にtcp/ipやiscsiなどもまとめれるし、tagも通せる。
ネットワーク設計さえきちんとすれば、上位のスイッチを介さなくて、モジュールだけで通信出来るし。
108名刺は切らしておりまして:2012/01/06(金) 05:05:29.98 ID:od4aeLML
何まじめに考えてるんだおまえら?
読んで欲しいのはここだろ。
>インテルが販売する他の技術と合わせて使うことで、
>室温をセ氏38度以上にしても大丈夫だという。

ただの提灯記事だよ。
109名刺は切らしておりまして:2012/01/06(金) 07:39:37.37 ID:Nm8Pg92m
>>107
HP Flex10は機能としては魅力だよね。
IBM も10Gスイッチと10Gパススルーは可能だし。
同様のコンセプト(10Gでまとめましょ)のブレードでCisco UCSもあるか。

うーん、10Gファブリックを必須要件とすると、大手各社のブレードサーバもそれなりに
対応機能を持っているから、IAサーバを並べる構成と比較して、コスト面ではブレード
とIAサーバ並べる構成と同じになってくるかも。

スレ本題に戻すと、ブレード構成とIAサーバを並べる構成だと、消費電力面では
ブレードに僅かに軍配が上がるものの、現時点ではブレードはその構成上
機器の集積率が高すぎて室温高いとIAサーバと比較して故障率が上がるかなあと。
110名刺は切らしておりまして:2012/01/06(金) 07:59:04.94 ID:WdprbGgo
IAサーバって何?

インテル半導体ではなくて、他社のサーバのステマのスレですか?
111名刺は切らしておりまして:2012/01/06(金) 11:35:18.20 ID:F0mZD2bM
いままでのサーバーセンターは、エアフローの設計があまり詰められてなかったので
余計目に冷やしておかないと温度ムラができてそれが原因で故障する可能性があった
いまはそれがかなり改善されたので、ぎりぎりの温度でもいけるようになった
ただそれだけ
112名刺は切らしておりまして:2012/01/06(金) 12:34:54.01 ID:8d39HDY0
IAサーバってIntel Architectureサーバだぜ、と一応突っ込み。
でもブレードは熱密度高すぎるのかあんまりこういうネタの時は見ないな。
空調コストを気にしなけりゃいけない台数のブレードがおいしくないからか?
113名刺は切らしておりまして:2012/01/06(金) 17:17:36.03 ID:iT2xNm5w
>>102
>機内の排熱能力が上がったから室温の底上げにも耐えられるって話だぞ
そんなことは一言も言っていない
お前こそ無知のくせに知ったかするなよ
114名刺は切らしておりまして:2012/01/06(金) 17:23:42.55 ID:WYhTPnji
いくらインテルのチップは問題なくても、電解コンデンサは周囲
温度が10℃上がると、寿命が半分になるからなぁ。

固体コンデンサじゃ、サイズに比べて容量の上限があるし。
タンタルみたいに、ショートモードで破壊するヤツもあるし。
115名刺は切らしておりまして:2012/01/06(金) 17:27:57.72 ID:sADHq74r
基盤のコンデンサーだけ冷やすシステムにすれば省エネ
116名刺は切らしておりまして:2012/01/06(金) 17:38:49.42 ID:WYhTPnji
損失角(タンジェントδ)やL分があるから、まったく発熱しないわけでは
ないが、コンデンサ自体は基本的に発熱はしないんだな。

ファン付きのコンデンサなんて聞いたことないだろ?(w

一番発熱するのは、インテルの糞チップ。
117名刺は切らしておりまして:2012/01/07(土) 07:21:53.25 ID:bxyh42Xl
インテルの言い分としては
自分のとこのチップは高温に耐えられるぞ
でも他のメーカーのHDDやコンデンサは違うけどな、という

でも自分のとこが原因じゃない故障は買い替え需要がかえって自社においしいから
推奨しておくのは悪く無いという考え
118名刺は切らしておりまして:2012/01/07(土) 08:56:14.53 ID:61H5b4k6
氷河期かよ、みたいなデータセンターいっぱいあるので、まずは25℃くらいにするのはデメリット全くない
119名刺は切らしておりまして:2012/01/07(土) 10:06:23.10 ID:5G1Oekow
>>117
でも、HDD壊れて買い替えてももintelは儲からないだろう。
intelSSDってサーバー用あったっけ?
120名刺は切らしておりまして:2012/01/07(土) 10:40:11.80 ID:oWNHmUel
フラッシュメモリを使っているSSDは、劣化により書き換え可能な回数に限界
があるので、実は可動部があるHDDよりも寿命が短い罠。

SDDが飛んで、2ちゃんねるのサーバーの大半の板が消滅したのを忘れたの?
121名刺は切らしておりまして:2012/01/07(土) 10:48:35.56 ID:sVrlnvRy
冷却をインテリジェンスにして効率化すれば外気温38℃でも大丈夫ってだけの話
熱がこもるなら外気温が10℃でも0℃でも故障しやすくなる
122名刺は切らしておりまして:2012/01/07(土) 13:03:40.00 ID:yTHgRqD5
>>120
>SDDが飛んで、2ちゃんねるのサーバーの大半の板が消滅したのを忘れたの?

いや、まともなデータセンターなら、ダブルパリティや、仮想ストレージで冗長性を、持たせてるでしょ。
OSも外部ストレージからのブートだろうし。
123名刺は切らしておりまして:2012/01/07(土) 13:30:57.46 ID:rwnrWGTD
いまどき仮想化がはやりなのもあってサーバー自身にストレージは載せないことも多いよな
外部ストレージにしておいたほうが結果的にラック効率も上がるし
>>119
710シリーズがそう
124名刺は切らしておりまして:2012/01/07(土) 14:40:50.15 ID:yTHgRqD5
>>123
>外部ストレージにしておいたほうが結果的にラック効率も上がるし

ですね。仮想raid機能やシンプロビジョニングを使えば、ディスクの効率的な利用が出来ますしね。
125名刺は切らしておりまして:2012/01/08(日) 05:00:47.76 ID:bxXtVoHF
仮想raidってHDD1台で正副のraidするとか?
危ないからそうじゃないか。
126名刺は切らしておりまして:2012/01/08(日) 09:44:20.57 ID:E39wxytM
>>125
>仮想raidってHDD1台で正副のraidするとか?
>危ないからそうじゃないか。

HDDドライブ単位でRAIDを構成するのでは無く、HDD複数台でストレージプールを作って、複数のRAIDが共存出来る技術。
例えば、HDD10台で、ストレージプールを構成し、その中で、あるサーバー用のRAID5、別のサーバー用のRAID1といった感じで共存出来る。
もちろんオンラインでリサイズや、HDDの拡張が出来る。
これによりHDDの効率的な利用が可能。
127名刺は切らしておりまして:2012/01/08(日) 10:43:00.22 ID:OZl/gnqt
>>126
仮想RAIDってロートルなおっさんには嫌われる傾向があるな。
どのHDD(RAIDグループ)に何のデータが乗っかってるって判別できないからw
(そういう人は使わなくてよろしいという突っ込みは分かってるが)

大抵のエントリーストレージに仮想RAID機能が搭載されてきているけれど、
製品によっちゃまだまだ不安定だよね。
HDD一本を故障交換した直後にLUN丸ごと見えなくなったり。
128名刺は切らしておりまして:2012/01/08(日) 16:32:52.92 ID:bxXtVoHF
>>126
ハイレベルのraidは全く知らんけど、10台の内の1台のHDD壊れて新しいの持ってきて繋いだら、別のHDD達からデータ持ってきて復活さすのかな。

やっぱり2台とか複数同時に壊れたらアウトだよね。復活でけない事がありそうだよね。

置き場所(階とかサイトとか)工夫したり、余分なやつとかとローテーションさすのかな。
129名刺は切らしておりまして:2012/01/08(日) 16:34:57.34 ID:bxXtVoHF
>>127
LUN=ローカル ユニット ネットワーク?
130名刺は切らしておりまして:2012/01/08(日) 16:47:32.43 ID:bxXtVoHF
131名刺は切らしておりまして:2012/01/08(日) 20:13:12.67 ID:AQwcKEBJ
>>128
>>126
>ハイレベルのraidは全く知らんけど、10台の内の1台のHDD壊れて新しいの持ってきて繋いだら、別のHDD達からデータ持ってきて復活さすのかな。

>やっぱり2台とか複数同時に壊れたらアウトだよね。復活でけない事がありそうだよね。

ダブルパリティにしたり、ホッとスタンバイのHDDを用意したりして、耐障害性をあげますね。
あとは安いストレージにバックアップとったりかな。
132名刺は切らしておりまして:2012/01/10(火) 16:48:21.78 ID:wnlE20Zg
>>96
なぜ世界の企業がアラスカやアイスランドにデータセンターを置かないのか疑問だな
133名刺は切らしておりまして:2012/01/10(火) 16:50:54.74 ID:wnlE20Zg
>>48
もうすでに水没式のが秋葉系に出回っているよ
134名刺は切らしておりまして:2012/01/10(火) 19:09:55.28 ID:LnkbB1Ju
>>132
フェースブックがスウェーデン北部にデータセンターを建設するそうな
135名刺は切らしておりまして
>>132
>>96
>なぜ世界の企業がアラスカやアイスランドにデータセンターを置かないのか疑問だな
ロッキー山脈の麓は、結構ありますよ。