【プログラム】Googleが新しい圧縮アルゴリズム「Zopfli」を発表 webが早くなるかも
1 :
しいたけφ ★ :
2013/03/01(金) 21:37:47.50 ID:???0 Googleが今日(米国時間2/28)、オープンソースの新しい圧縮アルゴリズムZopfliをローンチした。
今の標準圧縮技術であるzlibライブラリに比べて5〜8%圧縮率が高いといわれ、また
解凍アルゴリズムは今のWebブラウザが現用しているもので間に合うため、Webサーバが
これを採用すれば、データの伝送速度が上がり、Webをやや速くすることができるだろう。
このアルゴリズムはチューリッヒ在住のGoogle社員Lode Vandevenneが20%プロジェクト*
として作ったもので、Deflateアルゴリズムの実装だ。それはZIPやgzipが使っているアルゴリズムで、
画像ファイルのPNGにも使われている。出力(圧縮結果)はzlibと互換性があるが、
圧縮を行うアルゴリズムがzlibとは異なり、より効率的だ。
〔*: 20%プロジェクト, 会社の拘束時間の20%は好きなこと(研究開発)をしてよい、というGoogleの内規。〕
Vandevenneは今日の発表声明で、“この徹底的で容赦のない圧縮アルゴリズムは、
エントロピーモデルの反復と最短経路アルゴリズムを駆使し、可能なすべての
デフレート表現のグラフ中にビットコストの低い経路を見つける”、と述べている。
ただし、高い圧縮率の代償は長い圧縮時間だ(解凍時間は同じ)。Vandevenneはこう書いている:
“最大でzlibの2〜3倍のCPU時間を要するので、Webの静的コンテンツのように、
一度圧縮したらそれを今後何度でも使える、というアプリケーションに向いている”。
http://jp.techcrunch.com/archives/20130228google-launches-zopfli-compression/
2 :
名無しさん@13周年 :2013/03/01(金) 21:38:34.95 ID:oi9e1wsP0
zopでくれ
ああゼットンにやられたら迎えに来てくれるあの人か
一方Appleは2ch閲覧を禁止した
なぜネトウヨはうんこをウンタラカンタラ
ドイツ語くせえ名前つけんな
7 :
名無しさん@13周年 :2013/03/01(金) 21:40:08.59 ID:2+Fh2Irc0
>>1 の続き
なぜネトウヨがウンコを好んで食すのか
私なりに、真剣に考えてみた
一般の人々にも広く認識されている通り、
ネトウヨは一般人とは大きく乖離した常識と感覚を持った存在
ネトウヨは常に一般人とは逆のことを考えているのだ
つまり・・・
一般人が「美しい」と思うものを「汚らわしい」と思い、
一般人が「汚らわしい」と思うものを「美しい」と思っている
ということ …
\__________ __________/
∨
____…コピペ送信。
/ \
/ _ノ ヽ、_\ 今晩もまた糞コピペを
/ o゚⌒ ⌒゚o\ 貼るバイトが始まるお。
| し (__人__) | ________
\ ` ⌒´ ,/ .| | |
ノ \ | | |
/´ | | |
| l | | |
ヽ -一ー_~、⌒)^),-、 | |_________|
ヽ ____,ノγ⌒ヽ)ニニ- ̄ | | |
googleどんどん使いづらくなる
閉鎖危機が来ても大丈夫だな
11 :
名無しさん@13周年 :2013/03/01(金) 21:41:16.59 ID:XQgQV1ut0
俺も会社の拘束時間の20%はクソしてます
とりあえずtarでくれ
13 :
名無しさん@13周年 :2013/03/01(金) 21:41:30.12 ID:+ekc7Qp90
ぞふりー?
すげー
16 :
名無しさん@13周年 :2013/03/01(金) 21:43:24.04 ID:8S3o6DYs0
ウルトラ兄弟の長男もグーグル帝国の軍門に下った
アルゴリズム体操を速くやるとぶつかるぞ
18 :
名無しさん@13周年 :2013/03/01(金) 21:44:06.97 ID:5x7IF4LT0
ラー
クソ重いサイトは弾くアルゴリズムのほうがいいと思う。
> ただし、高い圧縮率の代償は長い圧縮時間だ(解凍時間は同じ)。Vandevenneはこう書いている: > “最大でzlibの2〜3倍のCPU時間を要するので、Webの静的コンテンツのように、 > 一度圧縮したらそれを今後何度でも使える、というアプリケーションに向いている”。 だめじゃん。普通によくあるパターン。
ただし圧縮されたデータを戻すのに最新のCPUでも処理には30日はかかる見込み
こんなことしていないで 早くAndroidの完成度をIOSまで近づけてくれよ… いつまであんなストレスの貯まるOSにしとくきだ
25 :
名無しさん@13周年 :2013/03/01(金) 21:47:51.08 ID:J58hPGqO0
zipと間違えやすいお
なんにでも手だしよる
いまどき圧縮できる静的コンテンツなんてどんだけあるんだよ……
28 :
名無しさん@13周年 :2013/03/01(金) 21:49:44.66 ID:I7l19Pmp0
>解凍時間は同じ
29 :
名無しさん@13周年 :2013/03/01(金) 21:49:58.56 ID:RMUi16NK0
> “最大でzlibの2〜3倍のCPU時間を要するので、Webの静的コンテンツのように、 > 一度圧縮したらそれを今後何度でも使える、というアプリケーションに向いている”。 静的ページって昔と比べてすごく減った気がするんだがな。
|:;:;:;:;:;:;:;:;:;:;:;:;:;:i;:;:;:;:;:;:;:;:;:;:;:;:;| |;:;:_:;:_:;:_:;:_;:;_:;:l:;_;:_:;:_:;:_:;:_;:_;| |______|_____| | 三| _ _ |三 ! | 三| 三シ ヾ三 |三 | | 三′ .._ _,,.. i三 | ト、ニ| <でiンヽ ;'i"ィでiン |三.| ', iヽ! 、 ‐' / !、 ーシ |シ,イ i,ヽリ ,' : !. |f ノ ヾ! i ,、 ,..、ヽ lノ | _ _ イ l l ,ィチ‐-‐ヽ i /、 なにそれ ゙i、 ゝ、二フ′ ノ/'"\ | \ ー一 / / _,ン'゙\ ,ィ|、 \ /_,、-'" _,.-''´ `丶、__ _, イ | ヽ_ 二=''" _,. -''´ """""´´ ``ー
l三`ー 、_;:;:;:;:;:;:j;:;:;:;:;:;:_;:;:;_;:-三三三三三l l三 r=ミ''‐--‐';二,_ ̄ ,三三三彡彡l_ この感じ・・・・ lミ′  ̄ ー-'" '=ミニ彡彡/‐、ヽ l;l ,_-‐ 、 __,,.. - 、 彡彡彳、.// zopか・・・・ _______∧,、_‖ `之ヽ、, i l´ _,ィ辷ァ-、、 彡彡'r ノ/_ ______  ̄ ̄ ̄ ̄ ̄ ̄ ̄'`'` ̄ 1  ̄フ/l l::. ヽこ~ ̄ 彡彳~´/  ̄ ̄ ̄ ̄ ̄ ̄ ヽ ´ :l .l:::. 彡ィ-‐'′ ゝ、 / :. :r-、 彡′ / ィ:ヘ `ヽ:__,ィ='´ 彡;ヽ、 _,,..-‐'7 /:::::::ヽ _: :_ ヽ ィ´.}::ヽ ヽ、 _,-‐'´ { ヽ:::::::::ヘ `'ー===ー-- ' /ノ /::::::ヘ, ヽー、
32 :
名無しさん@13周年 :2013/03/01(金) 21:53:02.63 ID:/nM0fbFn0
まあ静的コンテンツでなくてもこれが当たり前になるんだろうよ。 要はIT土方の帰宅時間が遅くなるってだけの話だよ。
>“最大でzlibの2〜3倍のCPU時間を要するので 結局、遅くなるのか ?
pngでおk
ゾッフリ
SSDで早くなった分全部持っていきそうだなw
37 :
名無しさん@13周年 :2013/03/01(金) 21:55:46.68 ID:QQCDt8Ac0
いくら新しいものを作ってもノーフリーランチ定理があるからなぁ
bzip2より凄いの?
障害発生時の切り分けがメンドイ
41 :
名無しさん@13周年 :2013/03/01(金) 21:59:16.17 ID:4IMTmspu0
動画をzipとかで圧縮してうpする意味がよくわかん 元々圧縮し尽されてるデータだから容量なんてほとんど変わらんだろうに
42 :
名無しさん@13周年 :2013/03/01(金) 21:59:31.33 ID:aTaKftls0
>>24 そら適当な物で金を稼ぐほうが効率がいいからなー
完成度を上げて客を喜ばせる理由がない
5〜8% ww
45 :
名無しさん@13周年 :2013/03/01(金) 22:02:00.97 ID:aCR11SdiP
gzip、zip、zlib、pngで使われているdeflateアルゴリズムで ちょっと圧縮率を高くするアルゴリズム Webブラウザ、圧縮展開ソフト、画像表示ソフトなど、展開するソフトは 今までのものをそのまま使える 圧縮にかかる時間は2〜3桁多くなるが、5%〜8%小さくできる こういうといいことがなさそうだけど、Webで送信する静的なテキストを このアルゴリズムで事前に圧縮しておいたり、PNG画像を作るときに使うと トータルの送信データ量を減らせる
7zip脂肪確定?
|ョ 、 ,_;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;:;;;;;;;;;;;;;;;;;;;;;;;ノ| ョ;;;;;;;;;丶、 ;;; __;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;_,,: ィ";;_| _)``' ‐、;;;;;;;;;;;;;;;` ` '' ー -- ‐ '' ";;;;;;;;;,:ィ彡 >';;,, ``' ‐ョ 、 ,_ ;;;;;;;;;;;;;;;;;;;;;;;;;;; , - '">了 _く彡川f゙ノ'ノノ_ノノ ` ` '' ー -‐ '" 八ミ、、;.) ヽ.:.:.:.:.:..::..:彡/ く三)、{_,ノ (三シ ヾ`~;.;.;) ヽ.:.:.:.:.:.;=、彡 , -−-_,, _,ィ 、_,,ィ,.-−、};f } く .:.:.:.:.:!ハ.Yイ 、,ィ或tュ、゙:ミ {,'ィt或 l:l,/ ):.:.:.:.:|.Y }: :! `ヽ 二ノ ト ` ‐''"l:l:f 逆に考えるのじゃ ) :.: ト、リ: :! ,r'、 ヽ リ_) { .:.: l {: : } ,/゙ー、 ,r'ヽ l 「zop画像がないなら自分で貼ればいい」 ヽ ! ゙i''' ,ノ `'" 丶. ,' ,/´{ ミ ゙l ′ ,, ィrェェzュ、,_ 〉/ そう考えるのじゃ ,r{ \ ミ ヽ ヘヾ'zェェェッ',// __ノ ヽ \ 丶 、 ` ー--‐ '/ノ \ \ 丶、 ,.イ!|ヽ`ヽ、 \ \ヽ ` ー‐;オ/ |l ト、 `'ー-、__ \ `'ー-、 // /:.:.} `'ー、_ `、\ /⌒ヽ /!:.:.| `、 \ /ヽLf___ハ/ { ′ / ! ヽ
48 :
名無しさん@13周年 :2013/03/01(金) 22:03:15.49 ID:heF7DJQy0
そのまえにさあ、
<html>の言語、作り直そうぜ。
あれ、俺最初にホームページ自力で作ったときに、
なんて、不便な言語だと思った。
よくわからんけどcssとかjava スクリプトとかもまとめて、
みんなで話し合ってバージョン2作ろうぜ。
ついでに
アドレスバーに
http://なんて意味不明な記号いれるのもやめようぜ
49 :
名無しさん@13周年 :2013/03/01(金) 22:03:16.45 ID:V6DmEvZC0
エントロピーモデル?w
>>41 虎フック軽減が無駄とか言いなさんなw この部分が軽くなればネットワーク全体が速くなるんだから
52 :
名無しさん@13周年 :2013/03/01(金) 22:06:56.91 ID:9RJu7VsN0
日本企業で拘束時間+20%は無給で会社のために働かなくてはならないのに
> Webの静的コンテンツ 新悪の帝国的には、一番不要じゃろ^^ まぁ、gzipも充分速いと思えるがの〜。 それより一割近く速いッちゅ〜のは、大したモンじゃの〜。
54 :
名無しさん@13周年 :2013/03/01(金) 22:08:09.84 ID:/S3ipHay0
Googleの技術って信用できるの? 圧縮するたびにファイルがGoogleのサーバに送信されるんじゃないの?
/j /__/ ‘, // ヽ ', 、 // ‘ ! ヽ …わかった この話はやめよう /イ ', l ’ iヘヘ, l | ’ | nヘヘ _ | | l ハイ!! やめやめ | l_| | | ゝ ̄`ヽ | |〈 ̄ノ ゝソノノ `ー‐' l ! ¨/ n/7./7 ∧ j/ / iヽiヽn |! |///7/:::ゝ r===オ | ! | |/~7 i~| | | ,' '/:::::::::::ゝ、 l_こ./ヾ.. nl l .||/ | | | | l {':j`i::::::::::::::::`ーr ' ||ー---{ | '" ̄ ̄iノ .l::::::::::::::::::::::∧ | ゝ ', , 一 r‐‐l γ /、::::::::::::::::::::::::〉ー= ___ ヘ ヽ } / o |!:::::} / o` ー 、::::::::::::i o ,':::::::{`ヽ ヘ ノ / o ノ:::::∧ /ヽ o ヽ::::::::| o i::::::::ヽ、 / / / ノ::::::/ /::::::::ヽ o ヽ:::| o {::::::::::::::Υ /
構わんlhzであげろ(aa略
>>50 今のgoogle使いづらくない?
このZopfliてのはどうか知らんが
“この徹底的で容赦のない圧縮アルゴリズムは、 エントロピーモデルの反復と最短経路アルゴリズムを駆使し、可能なすべての デフレート表現のグラフ中にビットコストの低い経路を見つける” こういう普段使わない英単語を並べればカッコイイと思ってるの?オナニー野郎は
59 :
名無しさん@13周年 :2013/03/01(金) 22:10:09.54 ID:TXLhW2ac0
launchって、ローンチっても読むんだな。
あ、圧縮率やのに『速い』て^^; また、ボケても〜た (´;ω;`)
zipよりあきらかに軽いとか圧縮率で10%以上高いとかなら考えるけどw
発表声明がなんかかっこいい事はわかった
こんなgoogleライブラリを使われたらアナライズやら遠隔操作やら仕込まれてgoogleのやりたい放題になるぞ
65 :
名無しさん@13周年 :2013/03/01(金) 22:16:21.69 ID:n4AINroa0
使えねえ。負荷が高いのは普及しない。 CABファイルと同じこと。 多少、容量的に無駄があっても、ロード時間と大差ない程度の時間で圧縮できるのがいい。
入力中にプルダウンで候補が出るかどうか、 入力中に自動的に検索するかどうかは、 クッキーじゃなくてクエリーで指定できるようにしてくれ。 うざくてはしかたない。
その前にGoogleはスマホに Google設定って変なアプリ消せるようにしろ! 気持ち悪くて困る
次はzepあたりか
69 :
名無しさん@13周年 :2013/03/01(金) 22:27:15.30 ID:n4AINroa0
この方が良い。
SnappyはGoogleが公開したオープンソースの圧縮ライブラリ。
圧縮率はイマイチだけど圧縮・伸長の速度は速い、Hadoopと相性良い。
ベンチマークを見た限りでは、圧縮率や速度はLZOと割と似た感じの数値になることが多い。
日本語文字列を圧縮してみる
サンプルファイルはTwitterから収集した日本語Tweet 843万件(941MB)。
所要時間は下記のようになった。実行したマシンのCPUはAthlonII X4 640。
形式 所要時間 サイズ
Snapp 8.00秒 611MB
Gzip 93.49秒 401MB
BZip2 666.66秒 275MB
SnappyCodecでは圧縮にかかった時間は僅か8秒。速い。
試しにcpコマンドで元ファイルをそのままコピーしてみたところ、8.9秒かかった。つまり、圧縮した方がコピーするだけより速かった。
http://www.mwsoft.jp/programming/hadoop/snappy_memo.html
Googleは肝心の検索機能がおざなりなんだよ books.goole.comとかPDFサイトとかヘタクソな日本語OCRかけた文章みたいでクラクラする
Googleここ最近の功績
Google ChromeのシェアがFirefox追い越す。
次世代HTTPに組み込まれる予定のSPDYの開発・普及。
コスパ最強のNexus7。
モバイルOSのWindowsであるAndroid。
C言語を拡張したプログラミング言語Google Go。
>>1 これ
72 :
名無しさん@13周年 :2013/03/01(金) 22:32:55.66 ID:WeAvit5k0
よっしゃ、わしが新しい圧縮プログラム考案したろ。 その名もyfx。 すべての数列は、y=f(x)の公式で表すことができることからその名がついた。 メリットは、圧縮サイズがめちゃ小さい。解凍は従来通り。 デメリットは、圧縮に時間がかかる。 滅多に使用しないギガバイトファイルの保管向け。 なんと1GBが100MBに!!
圧縮アルゴリズムが新しいのに 展開するのは互換性ありって不思議だな
75 :
名無しさん@13周年 :2013/03/01(金) 22:45:25.69 ID:n4AINroa0
展開にGZと互換性があるのはかなりの利点だな。後から読んで気づいた。 GZの高圧縮版として認識でき、実際にそうして使える。
例えるなら布団圧縮袋みたいなものだな。 圧縮率を高くしようとするとダイソンみたいな吸引力の高い掃除機が必要となってしまう。 圧縮した布団を戻すときは普通の手順で大丈夫。
zipとrarがここまで延命するとは思ってなかった。あとJPEGも
>>72 7zならbmp画像1GBが10MB以下になるよ
79 :
名無しさん@13周年 :2013/03/01(金) 22:51:53.99 ID:Q8DWUpNe0
無慈悲な圧縮アルゴリズムか。 zipは火の海だな。
80 :
名無しさん@13周年 :2013/03/01(金) 22:52:04.64 ID:aCR11SdiP
>>74 zipの一部やpng、gzipで使われる圧縮方式のdeflateはパラメータで
圧縮率と圧縮速度のトレードオフを調節できる
たいていの圧縮ソフトやPNG画像を保存できるソフトにはそういうオプションがあるじゃん
今回Googleが発表したアルゴリズムは圧縮率を突き詰めたもの
よく似たものに、圧縮率がやや高いZIPを作る圧縮ソフトkzip、PNG最適化ソフトpngoutってのが
あるんだけど、これはクローズドソースでアルゴリズムはナイショになってる
>>74 「この文章のこことここが同じだから繰り返しって書けばよくね?」ってのが圧縮だから
「こことここ」を見つけるのに時間をかけてもいいなら圧縮率はよくなる
Zopらんど
83 :
名無しさん@13周年 :2013/03/01(金) 22:55:08.65 ID:tM5FSXzZ0
静的コンテンツにしか使えないんじゃ価値が相当下がっちゃうなあ
スパムメール業者を撲滅すればいいのさ
俺、すごい圧縮アルゴリズムを考えた。 ・データを2進数にする。 ・2進数化したデータのビットは必ず0と1のどちらかなので、0が何個続くか、1が何個続くかという形でデータを再構成する。 (例) 0000 0000 → 0が8個連続する → 0 000 1000 (最上位のビットは 0 もしくは 1。残り7ビットで同一データの連続数を表現(最大128) 戻すときは上記と逆の手順で戻す。
Zipで十分です
20%研究のほうが驚いた 日本じゃ仕事120%だしな
88 :
名無しさん@13周年 :2013/03/01(金) 23:04:07.63 ID:tM5FSXzZ0
人間が考えられるコンテンツなんかたかが知れてるんだから 通し番号ふっていってクラウドから落とせばいいんじゃないかとかいうのあったな マイナーな圧縮形態だとRKなんてのがあったな 時間のかかり方が半端じゃなかった
89 :
名無しさん@13周年 :2013/03/01(金) 23:05:37.73 ID:aCR11SdiP
>>83 目的に合わせて使い分けるしかないね
このスレでも名前が出てるlzoってのは圧縮・展開が速い代わりに圧縮率はソコソコ
一般的なWebブラウザは対応していないからHTTPでは使われないけど、VPNなんかで
使われてる
Webの動的コンテンツは今までどおりのアルゴリズムを使ったリアルタイムdeflate圧縮
静的コンテンツはZopfliで固めておいた高圧縮なdeflate圧縮とか
nginxには静的なコンテンツを.gzで用意しておけるモジュールがあるので、Zopfliが
即活用できるそうだ
90 :
名無しさん@13周年 :2013/03/01(金) 23:10:05.35 ID:oB4UIJKTO
ぞぷふり
漫画ゲームにでも出てきそうな専門用語言われてもなにがなんだか
>>77 zipやrarはディレクトリ構造も保存できるのとパスワードかけられるのが特徴
JPEGは1677万色の画像を非可逆ながらPNGよりも圧縮できるのが大きい
今更圧縮技術なんて、、、、もう、充分だろ。ZIPで十分だよ。
94 :
名無しさん@13周年 :2013/03/01(金) 23:15:03.23 ID:eKKoVZof0
ちまちま圧縮するより、力技でそのまま送れよ もっとパワーを追求した方がいい
95 :
名無しさん@13周年 :2013/03/01(金) 23:21:11.47 ID:MoNgVGsh0
>2〜3倍 正しく訳すこともできないバカ記者
>>92 JPEGは非可逆、PNGは可逆。
そりゃ非可逆の方が圧縮率高いに決まってる。削ってるんだから。
>“この徹底的で容赦のない圧縮アルゴリズムは、 >エントロピーモデルの反復と最短経路アルゴリズムを駆使し、可能なすべての >デフレート表現のグラフ中にビットコストの低い経路を見つける” 何言ってるのかぜんぜんわからんww
元のデータを生成するための計算式を作り出すアルゴリズムができれば シャノン理論すら越えられる究極の圧縮プログラムが完成するはずなんだが
99 :
名無しさん@13周年 :2013/03/01(金) 23:53:12.00 ID:n0xw7ddK0
googleマップの建物に勝手に説明表示されるようになってから著しく動き遅くなってるぞ
100 :
名無しさん@13周年 :2013/03/01(金) 23:54:12.66 ID:WeAvit5k0
y = f(h,s) h=MD5ハッシュ値 s=ファイルサイズ 1分以内に元のファイルを作るプログラム作ってくれ。
101 :
名無しさん@13周年 :2013/03/01(金) 23:54:20.50 ID:gZ2B/t6v0
Zopでくれ
>>1 > 〔*: 20%プロジェクト, 会社の拘束時間の20%は好きなこと(研究開発)をしてよい、というGoogleの内規。〕
経営の視野狭窄を見抜いている、頭良いなgoogleは。
Accept-Encoding: zopfli,gzip,deflate
それよりもっとエロ動画を探しやすくしろ
圧縮アーカイバとフィルタの違いがわかってないコメが多いね。
性的コンテンツなんていやらしい///
未だに会社でLZH使うじじいが居て困ってる。
3 to eight 8 more densely が 5?8%圧縮率が高い と訳され two to three orders of magnitude more than zlib at maximum quality が 最大でzlibの2?3倍のCPU時間を要するので などと訳される不思議 プロジェクトページにだって"This compressor takes more time (~100x slower),"と書いてあるし リンク先のPDF読めばどこが2,3倍だボケとなること間違いなし http://zopfli.googlecode.com/files/Data_compression_using_Zopfli.pdf#page=3
109 :
名無しさん@13周年 :2013/03/02(土) 00:45:50.69 ID:a4Ms4WNg0
>>20 だよねー バックアップで圧縮するのなんて、どうせ解凍することのほうが圧倒的に少ないんだからさ
解凍時間長くていいから圧縮時間を短くしてほしいわな。
110 :
名無しさん@13周年 :2013/03/02(土) 00:48:02.95 ID:a4Ms4WNg0
>>48 えっとどこに突っ込もうか HTMLはすでにバージョン5だろw
111 :
名無しさん@13周年 :2013/03/02(土) 00:58:39.63 ID:a4Ms4WNg0
>>85 011010010110100を圧縮してみてくれ はよ
ちなみにあなたのそれはbmpのRLE圧縮
112 :
名無しさん@13周年 :2013/03/02(土) 01:06:49.27 ID:t8+RFbLg0
余計な画像とかフラッシュとかないだけで、 普通に早くなるんだけど?
113 :
名無しさん@13周年 :2013/03/02(土) 01:09:32.56 ID:4HZ1pCjy0
0101・・・の一対一対応に込められた情報の量を 圧縮できる限界ってあるんですか? つか、なければ困るはず・・・定理か何かがあるのかな。
DeepFreezer使ったり、らるち〜使ったり
115 :
名無しさん@13周年 :2013/03/02(土) 01:31:25.98 ID:J21S+SWF0
>>109 サーバーに置いとく分には、軽いほうが転送・負荷が軽く済む。
クライアント・ユーザー側としては、既存のgzipと同じに展開できる。
いっそBSDソケットに圧縮アルゴリズム実装すれば良いのに
117 :
名無しさん@13周年 :2013/03/02(土) 01:35:10.92 ID:Qbacg9DmO
ヒープ領域で可変長データを扱うバッファ領域を確保する時に無駄なく使いたいんだけど、いい方法ないかな。
> two to three orders of magnitude more than zlib at maximum quality 2倍3倍どころじゃねーじゃん。
ヒープメモリなんて固定長のデータを集まりなんだから 頻繁にサイズ加減するリソースの方が勿体ない。
120 :
名無しさん@13周年 :2013/03/02(土) 01:47:25.88 ID:J21S+SWF0
>>109 ここのスレを開くとgzipで転送される事がわかる。
クライアントの送信
GET /test/read.cgi/newsplus/1362141467/l50 HTTP/1.1
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
サーバーレスポンス
HTTP/1.1 200 OK
Date: Fri, 01 Mar 2013 16:41:21 GMT
Server: Apache/2.2.21 (Unix) mod_ssl/2.2.21 OpenSSL/0.9.8q PHP/5.3.8 mod_antiloris/0.4
Vary: Accept-Encoding
Content-Encoding: gzip
Content-Length: 7397
Connection: close
Content-Type: text/html
クライアント⇒サーバのリクエストヘッダでは Accept-Encoding: でブラウザ側が利用可能な圧縮形式を提示できます。
対してサーバ⇒クライアントのレスポンスヘッダでは Content-Encoding: でデータ本文の圧縮形式を通知できる。
http://www.kawa.net/works/perl/contenc/gzip-test.html
GPUかCPUに圧縮アルゴリズム用拡張命令実装しろよ
::| jj;;; ::| /|/人 ::| N' | | | ::| l`! | | | ::| i`' / | | | | ::| |γ⌒ヾ l`ヽ、 ::| |::ヽ::.  ̄ | ::| lヽ、 、,,, )(、,,, ノ|\ヾ ::| ノl:::、`(・)'W゙(・)´l | ::| ノ ト:. ,-‐'/iヽー-イ | < 某社が対抗してBerdanの開発を ::| ノ;;ゝ_./ | \ノ/ ヾ ::| l; ノト、_ ヾ \l/_,イノノト、ヾ ::| ヽ l ノ \ ヽiノ/ | l l ノ ::| ヽ__ノ\ \」/ ノヽ__ノ ::|-、,-、,- -‐´、 ヽ i / `,ー- 、,-、 ::|_ノ 、_ `ー┴' _, ゝ、 ::| ニ  ̄` ノ ヽ ´ ̄ニニニ ヽ
124 :
名無しさん@13周年 :2013/03/02(土) 03:30:23.49 ID:WNYhIoyf0
それよりいろんな機能をOFFに出来る様にしてくれ 勝手にリスト作ったりして、遅くてかなわん
グーグルの思想からすると、すべての情報をすべての端末にストレージすれば通信は検索だけになるからみんなハッピーといずれなる
>>1 だけどこのアルゴリズムを使うにはライセンスフィーを払わないと
駄目なんでしょう?
>>52 Googleのすごいとこだな
こういうのがあるから、新しい斬新なものも生まれてくるんだろうな
>>113 データは圧縮の効率が上がる毎に何の規則性も無いノイズに近付いて行って、完全に無規則なノイズになってしまったらそれ以上は可逆圧縮はできない。
5%小さくなるのね・・・うんどうでもいいかな
bzip2のほうがよくね?
テキストベースで送受信してブラウザで処理しているうちは
どうしても無駄が生じるよ
>>126 ユニシスががめてるうちにPNGやFlashに取って代わられたGIFを思い出した
少しでも速くなるかと期待して 毎日デフラグするような無駄な努力ですね
133 :
名無しさん@13周年 :2013/03/02(土) 20:32:19.13 ID:ANNMvrt90
良いの?
全世界のトラヒックが数%短縮されると考えれば どえらいことですよ
135 :
名無しさん@13周年 :2013/03/02(土) 20:47:37.53 ID:m1LZo/Jv0
>>1 >Vandevenneは今日の発表声明で、“この徹底的で容赦のない圧縮アルゴリズムは、
>エントロピーモデルの反復と最短経路アルゴリズムを駆使し、可能なすべての
>デフレート表現のグラフ中にビットコストの低い経路を見つける”、と述べている。
日本語でおk
136 :
名無しさん@13周年 :2013/03/02(土) 20:53:45.44 ID:yQ/oGxkjP
PNGの圧縮率向上が捗るな と思ったらフィルタの最適化のほうが効果が高かった
137 :
名無しさん@13周年 :2013/03/02(土) 20:58:57.71 ID:6Np+/XMP0
20年は遅いな
5-8%の圧縮率を稼ぐ為に2-3倍のCPU時間使うんだろ? それって元が取れてるのかなぁ 例えばさ、1%の圧縮率を稼ぐ為に10000倍の処理時間がかかるとしたら、 実用的じゃないよね。 それと同じ話なきがする。 元の大きさの1/2, 1/3になるから2-3倍のCPU時間使うんなら納得だが。
140 :
名無しさん@13周年 :2013/03/02(土) 21:29:37.15 ID:yQ/oGxkjP
>>139 2〜3倍じゃないよ、2〜3桁
元を取れるのは人気サイトでアクセス数が多く滅多に更新しないデータ
141 :
名無しさん@13周年 :2013/03/02(土) 21:48:11.87 ID:sQenSN6S0
重くなるソフト作ってユーザーにストレスを与え、信者にステマさせて最新ハードウェアを売ろう
>>139 ボトルネックがトラフィックにあってcpuがあまってるんならアリでしょ
大き目のソフトのネット販売には良いかもね サーバー負荷減らせる ほかの用途は少なそう
Zopfliでくれ
145 :
名無しさん@13周年 :2013/03/02(土) 23:34:00.06 ID:DJjZH27YP
Googleが開発したものって流行らなかったことの方が多いからなあ。 マップとかアースとかメールとかは数少ない成功例。
146 :
名無しさん@13周年 :2013/03/03(日) 00:03:16.16 ID:yQ/oGxkjP
一般人には使われていても、それに気付かんじゃろ
,彡ニ三三三三三三三ニ=ヾ;:;:;:;:;:;;:;:;:;:;:;:;:;:;:;:;:;:i;:;:;:i' ,彡ニ三三三三ニ三三ニニ;〃ヾ、;:;:;:;:;:;::;:;::;:::;:/;:;:/ ,彡彡,'',ニ=ミミミ三三三三ニニ彡 `゙゙''ー-、;:;/;;:;/ ',彡'/ r' ノヽヾミ三三三三三彡' _,,,,,,、ヽ;:;ィ''| ZIP・・・ 彡'|.|(‐'''" 'iミニニ三彡"´ ̄ `゙゙ー' ;;;:| ZIP・・・ . 彡i、ヾ (' ヾミニ三' __,,、 ....ノ / 彡ゝ `'' " |ミミミ' ,;'´ ,, ァ' ZIP・・・ '彳`ー‐i |ミミミ' `゙ニシ' |、ニ' ZIP・・・ --、/ i |ミミ .,,r‐''" | ノ く'ノ :i ミミ ´ ., ' |' ZIP・・・ 、\ .l ヾ .ノ(_,,、. | ZIP・・・ :\ヽ, ヽ / `t‐一' ::::ヽ ヽ `::. ,; ' .:i ZIP・・・ :::::::ヘ ヽ `::. ''"⌒゙''一ノ ZIP・・・ ::::::::::ヘ.ヽ ヽ、 ` ー'ーノ ::::::::::::::ヽヘ `ー┬‐一;;''""´ \、:::::::::ヽヽ /::ヘ ) `゙'ー、_ 〃`゙ー、;;;;\\ /i:::::::丿 ' , ' , '`゙ヽ、
,,彡ニ三三三三三三三ニ=ヾ;:;:;:;:;:;;:;:;:;:;:;:;:;:;:;:;:;:i;:;:;:i
>>1 .┏┓ ┏━━━┓
,彡ニ三三三三ニ三三ニニ;〃ヾ、;:;:;:;:;:;::;:;::;:::;:/;:;:/ ┃┃ ┃ ┃
,彡彡,'',ニ=ミミミ三三三三ニニ彡 `゙゙''ー-、;:;:;:;/;:;/' ┃┃ ┗━━┓┃
',彡'/ r' ノヽヾミ三三三三三彡' _,,,,,,、ヽ;:;ィ''|' ┃┃ ┏━┛┃
彡'|.|(‐'''" 'iミニニ三彡"´ ̄ `゙゙ー' ;;;:| ┃┃ ┃┏━┛
. 彡i、ヾ (' ヾミニ三' __,,、 ....ノ / ┗┛ ┗┛
彡ゝ `'' " |ミミミ' ‐'"ひi,;'´ ,ィ;;ァ' ┏┓ ┏┓
'彳`ー‐i |ミミミ' `゙ーシ' |、ニ' ┗┛ ┗┛
--、/ i |ミミ .,,r‐''" | ノ
く'ノ :i ミミ ´ ., ' |'
、\ .l ヾ .ノ(_,,、. |
:\ヽ, ヽ / `t‐一'
::::ヽ ヽ `::. ,; ' .:i
:::::::ヘ ヽ `::. ''"⌒゙''一ノ
::::::::::ヘ.ヽ ヽ、 ` ー'ーノ
::::::::::::::ヽヘ `ー┬‐一;;''""´
\、:::::::::ヽヽ /::ヘ ) `゙'ー、_
〃`゙ー、;;;;\\ /i:::::::丿 ' , ' , '`゙ヽ、
149 :
名無しさん@13周年 :2013/03/03(日) 00:20:54.19 ID:0kuO0wr00
>>115 >>120 ごめんなさい、
>>109 は
そういう用途はいくらでも似たようなのがあるので
別のベクトルで新しい圧縮を作ってほしいよねー。
例えばバックアップ用途にこんな圧縮→伸長は時間かかってもいいので
圧縮が短時間でできるのがあったりしたらいいねー、、、ってはなしです。
でも今考えてみたらバックアップを伸張するのは緊急時が多いから
やっぱりそこで時間かかったらだめだよwwwwということにきがついた
150 :
名無しさん@13周年 :2013/03/03(日) 04:26:14.18 ID:tNqmPPMs0
5%でも減らせたら、2ch掲示板などは、マシン台数削減できて月額出費が浮く。 もしくは、新規レンタルの時期を遅らせられる。
151 :
名無しさん@13周年 :2013/03/03(日) 04:41:05.63 ID:SVIr5q3Y0
152 :
名無しさん@13周年 :2013/03/03(日) 04:41:38.74 ID:tNqmPPMs0
>>152 今2chはサーバー1台だったと思うけど
ちなみにニコ動は10Gbps級サーバーを束にしてたはず
>最大でzlibの2〜3倍のCPU時間を要する うむ〜
>>103 Content-Encoding: deflate
157 :
名無しさん@13周年 :2013/03/03(日) 05:33:25.43 ID:tNqmPPMs0
キーワード:zopでくれ 2 名前:名無しさん@13周年[] 投稿日:2013/03/01(金) 21:38:34.95 ID:oi9e1wsP0 zopでくれ 101 名前:名無しさん@13周年[] 投稿日:2013/03/01(金) 23:54:20.50 ID:gZ2B/t6v0 Zopでくれ 抽出レス数:2
gca形式で十分
>>77 jpeg2000がちーっとも普及しなかったことが笑える
>エントロピーモデルの反復と最短経路アルゴリズムを駆使し、可能なすべての >デフレート表現のグラフ中にビットコストの低い経路を見つける”、と述べている。 これってつまり、 「元データを圧縮したらこういうビット列になります」の逆に 「伸長したら元データと同じになる複数の圧縮表現の中から最短の物を見付ける」 という理解でいいのかな。
162 :
名無しさん@13周年 :2013/03/03(日) 15:43:15.12 ID:9gZQg8IG0
>>160 マイクロソフトが乗り気でなかったことが致命的
163 :
名無しさん@13周年 :2013/03/03(日) 15:49:40.18 ID:G2qLSPHN0
なるほど、まったくわからん
圧縮ソフトの設定で圧縮度最高で処理みたいなのがよくあるけど 超絶に遅くなる割にサイズはあまり変わらないので使ったことがない
> 出力(圧縮結果)はzlibと互換性があるが、 ここがミソだな。zopで圧縮してもzlibで解凍できるのは大きい。 とりあえず仕事で使うファイルをrarで送ってくるやつは氏ねばいいと思う。
圧縮するにはインターネット接続が必要で、何か情報送るんでしょう?
普段7-Zip/GZip2/XZを使う機会が多いから正直今一だな 実際にビルドしてみたけど --i1000 なんてどう見ても実用度外視のネタオプションとしか思えない
168 :
名無しさん@13周年 :2013/03/04(月) 01:36:02.51 ID:ceKs3OTC0
>>167 GZIPのふつうの展開ルーチンが使える。
ブラウザなどが新規にバージョンアップしないくて良い。
169 :
名無しさん@13周年 :2013/03/04(月) 11:47:47.34 ID:XMqj3pUL0
>>152 なにげにバカにならないな
圧縮時間が2〜3桁増えたとしても、一度圧縮すれば再度圧縮はほぼ起きないわけだし
>>165 rarなら損失補償って意味があるからマシじゃん
いまだにlzhを使ってくるバカが多数いるぜ
170 :
名無しさん@13周年 :2013/03/04(月) 11:52:26.24 ID:wR6rqNpU0
171 :
名無しさん@13周年 :2013/03/04(月) 11:53:22.91 ID:8F/9w1OyO
>徹底的で容赦のない チョンチュンくせえ言い方だな
rarのリカバリほど無駄なものは無いな。 あれに助けられたことは一度も無いわ。 そもそも普通のPCでリカバリが必要になるエラーなんてそう起こらないし、 起こるとすればメディアの破損だが、たかだか10%程度の冗長じゃどうにもならんし。
徹底的で容赦のないって訳は面白すぎるだろ
174 :
名無しさん@13周年 :2013/03/04(月) 13:12:09.51 ID:kiHPnsNS0
Win7でZIPに固めるとパスワードがかけられず、 しかもWS2008で解凍しようとするとアクセス権限がないとか わけのわからないエラーになる 死ね!!!!!!!!!
事前に圧縮しておくのなら7zipとかでいい 似たような技術だと思うし
176 :
名無しさん@13周年 :2013/03/04(月) 14:41:35.14 ID:4UmTBO4v0
ブラウザで展開できないだろ阿呆
さっさと2chでも採用しろよ
>>172 フロッピーのころは役に立ったぞ。
あと、SSDでも役に立つことがあると思われる。
.mag
180 :
名無しさん@13周年 :2013/03/04(月) 20:41:58.30 ID:R7QmCzGcP
論文ネタにはなるけど、実用面は微妙だな。 GO言語とかもどうなった?
7zipだけは、無い。 無断でコンテクスチョに入り込んだり、動作野良杉。 まぁ、アーカイバはrar一択じゃの〜。
そりゃ圧縮効率を10%上げるとか、非常に有意義なのはわかるけど、 それ以上に広告のフラッシュやら動画やらで転送量やデーター量を 馬鹿食いしてる現状も何とかしてほしいわ。 昔のパソ通のころ、トップページに馬鹿でかいフルカラー画像張り込んでた サイトにイライラさせられてたのを思い出す。
エプソンのプリンタを既に持っててサポセンのフォームにアクセスしただけなのに Ads by Googleでエプソンのバナー広告が出るとか意味不明 そんなシステムで広告主から広告料を取るなよ
どういうことだか誰が説明しろ
googleが作ったのなんて怖くて使えません
>>184 今はブラウザでサーバにアクセスがあったら、そのときに圧縮して転送するって方法があるのだけど、
それにはこの方法は有効じゃなくて、あらかじめ圧縮しておいたものを提供するというときに
有効ってこと。
関連ツールでPNGの最適化楽しい
188 :
名無しさん@13周年 :2013/03/05(火) 04:25:45.23 ID:VVXlETc80
Content-Encodingが7zやxzに使われてるlzmaに対応すればWebの高速化に結構貢献すると思う
>>114 yz1形式懐かしいな
あんまり流行らなかったよね
ほぅうw
どんなに速くなっても それ以上に余計なもの付けて遅くするだろ
最近全然使わなくなったGoogle
検索語をダブルクォーテーションで括らないと勝手にあいまい検索して不要なサイトがヒットする