100分の1以下を実現するデータ圧縮の新技術!!

このエントリーをはてなブックマークに追加
1非決定性名無しさん
米国の新興企業と数学者のグループが,劣化なしにデ ータを100分の1以下に圧縮できるという技術を発表。 実用化はまだ先だが,これによって高速インターネット の可能性が大きく広がるかもしれない。

http://www.zdnet.co.jp/news/reuters/020110/e_researchers.html

情報理論の常識が吹っ飛ぶのか?
2:02/01/11 01:34
> ランダムな情報シーケンスを劣化さ せることなく100分の1
> 以下に圧縮することに成 功。

ランダムがどうランダムなのかによるが、普通に考えてiid情報源だとしたら
古典情報理論においてそれ以上の圧縮は(期待値として)不可能であるはずだ。

もしコレが事実ならば、シャノンが作り上げた情報理論の骨組みが
まったく異なるものとして再構築されるかもしれん。
3非決定性名無しさん:02/01/11 06:12
眉唾だろ。
4非決定性名無しさん:02/01/11 07:01
ここの馬鹿には理解できんだろ
5非決定性名無しさん:02/01/11 11:35
>>2
例え1/100以下に圧縮が本当だとしても、別にシャノンの定理が
崩れたりはしないのだが。

あれは、単に情報を転送するときは、通信路の特徴によって一度に
遅れる情報量の限界がありますよーって言ってるだけだし。

んで、圧縮後の情報を通信路に流したとして、その通信路の
容量を超えなきゃ別にいいじゃん。これはシャノンには引っかかって
ないよ。
61:02/01/11 13:30
>>5
それは通信路符号化定理のお話だよね。通信レートを C=max{I(X;Y)}
以下にすればゼロに近い誤りで転送する事ができる通信路符号化が
存在するだっけ。

ZDの報道そのものが情報理論をまるで分かってないような感じなので
今回の発表がどういうものなのか正直捕らえがたく、通信路符号な
のか、情報源圧縮なのか正直はっきり分からない。ただ、発表元の
声明文の題名が「MATHEMATICAL BREAKTHROUGH OVERCOMES LIMITATIONS
OF DATA COMPRESSION THEORY」となっていて、情報源圧縮の事を言っ
ているではないかと予想している。

万が一、冗長度が0のiidランダムシーケンスが圧縮されるのだとしたら
シャノンの理論そのものをまさに Breakthrough するものだろう。
75:02/01/11 14:34
>>6
へい。そうだす。ニュー速のスレとか見ていると、このへんの
勘違いが目についたので、とりあえず反応してみました。

おそらく純粋に新しい圧縮アルゴリズムの発見を主張したいのだと
思われ。だから情報源圧縮であってると思いますです。

しかし、適用する圧縮アルゴリズムに対する冗長度が0の場合は、
そもそも圧縮できるのかと小一時間。

百億万歩下がって仮にシャノンに対するブレークスルーがあると
したら、どういう穴を突いてくるのかなあ。
8非決定性名無しさん:02/01/11 15:02
量子圧縮ですかのう。
9非決定性名無しさん:02/01/11 15:05
ただのハッタリに100カノッサ
10名無しさん:02/01/11 15:11
「自然発生パターンを意図的に作り出して,エントロピー
ライクなランダムシーケンスを形成するもの」

詳しい人、この部分の解説希望。
俺はさっぱり意味が分かりません。
11非決定性名無しさん:02/01/11 15:41
256個文字を良く使うものだけに限定してそれらに短い符号を当てる。
そうすればエントロピーは減少。
つーか、それだったらエントロピー圧縮で達成可能だな・・。
12非決定性名無しさん:02/01/11 15:46
>>11
ハフマンとどう違うんだ?
13非決定性名無しさん:02/01/11 15:48
>万が一、冗長度が0のiidランダムシーケンスが圧縮されるのだとしたら
たしかに驚きだな。
これが本当なら詳しい事を知りたい。
14非決定性名無しさん:02/01/11 15:51
>>12
同じだね・・。50年前から思考が停止しているみたいだ。
15非決定性名無しさん:02/01/11 15:52
>>13
そんなことある訳無いだろ。
それが可能だとしたら、圧縮後の情報にさらに圧縮をかけていけば
最後は1bitまで圧縮できるはずだ。そんなことは不可能だ。
16非決定性名無しさん:02/01/11 15:55
>>15
だから物議を読んでいるんじゃん。
もしかしたら新しい圧縮限界があるかも知れんし。
17名無しさん:02/01/11 16:20
>>16
物議は醸すものではないだろうか?
18非決定性名無しさん:02/01/11 16:33
ここか?>ZeoSync

ttp://65.170.178.208/flash/flash.html

Flashうぜーよ。
19非決定性名無しさん:02/01/11 17:08
>>10
エントロピー「ライク」がちゃーむぽいんと。
20非決定性名無しさん:02/01/11 17:16
例えば、エントロピーライクなパターン数種類と、
そのパターンへの操作をあらかじめ定義しておき、
それらの組み合わせを使うとか?
21非決定性名無しさん:02/01/11 17:40
ニュース板でもこれが話題になってますが、理系のふかわくんが
素人の文系相手に説明に相当苦労してるようです。助けてあげて(w
http://choco.2ch.net/test/read.cgi/news/1010670022/
22非決定性名無しさん:02/01/11 17:49
みてきた(笑

このアルゴリズムは、『真にランダムなデータ』のみ1/100に圧縮できます。
23非決定性名無しさん:02/01/11 21:44
>>20
それはLZWとあまり変わらんよ。
24出張32:02/01/11 21:51
創造への挑戦!
この手の技術は単に数学理論だけで考えてるとダメです。
やはり物理現象としての圧縮を考えるのが良いでしょう。
伝送や記憶の殆どに電子が使われている事は世界の常識です。
電子の特性を考え情報の重ね合わせと分離に成功すれば1/100など容易い筈。
量子系の技術が使われていることを切に願うだけかもね♪

# 話題を広げて賢くなろう!
25非決定性名無しさん:02/01/11 21:53
>>24
かなりイタイ意見ですよ。
26非決定性名無しさん:02/01/11 21:54
理論はおいといて、問題はこの技術の普及によって
仕事にどのような変化が発生する可能性が出てくるかだ

などと言ってみるテスt
27非決定性名無しさん:02/01/11 21:56
>>24
電子の特性を考えると冗長度は増えます。DC-free符号とかそこら辺の話。
量子はまだまだ実用には耐えません。
根本的な定理を整理している段階です。実装はまだ遥か彼方。
28非決定性名無しさん:02/01/11 22:00
量子はいまだにダイヴァージェンスの定式化も意見が分かれているところ。
つまり本質がまだ見えていないという事ですな。
29非決定性名無しさん:02/01/11 22:12
ニュー速みてきたけど、ふかわってのイタイだけの
理系を目指してる自称理系野郎じゃねえか。
30非決定性名無しさん:02/01/11 22:20
全てのパターンを100分の1以下に可逆圧縮できるなら数学法則をも
打ち破る大発明だな。(ワラ
31:02/01/11 22:21
一日考えてみたが、どう考えても眉唾だとしか思えないな。
ただ、エントロピー圧縮しかない時代にリアルタイムでユニバーサル圧縮
が発表されたとしたら今回と同じような反応をしたに違いない。
期待はしてしまう。
「Ledの教え子」のコテハンで、物理板を散々荒し回った
お前が言うことか!>24
33非決定性名無しさん:02/01/11 22:33
>>32
マジで?イタタタタタ…。
34出張32:02/01/11 22:48
>>32
知らんな!
スレッドを汚さんでくれ!(アホがぁ

>>30
もし真実だとしても(信じられん)数学法則が打ち破られるとは思えない。
35非決定性名無しさん:02/01/11 23:09
>>32
ホントだ…。
何か文体そっくり…。ていうかそのまんま。

個人的には>>15がいいことを言っていると思われ。
36非決定性名無しさん:02/01/11 23:09
>>32-33
理系板でとっくの昔にガイシュツ。つーかスレ違いスマ。
37出張32:02/01/11 23:31
>>35
> ホントだ…。
> 何か文体そっくり…。ていうかそのまんま。

無意味な比較は止めてくれ。
BBSで個人を特定するのは無意味、投稿された内容が全てです。

> 個人的には>>15がいいことを言っていると思われ。

そう、良いことを言っている。
究極の圧縮は最小単位にすることですからね。
物理的に重ね合わせるのと数学法則は全く異なる概念です。

勿論、直ぐに実現するとは思えないけどね♪(否定は何方でも簡単に出来るし、この場合は無意味!)
38非決定性名無しさん:02/01/11 23:52
そろころ得意げな顔で『カオスです』!とか言い出すヴァカが出てくるぞ(藁
 (スニーカーズは面白い映画だった)
39非決定性名無しさん:02/01/12 01:04
http://pc.2ch.net/test/read.cgi/tech/1010674540/

向こうは良スレ。こっちは駄スレ。
40非決定性名無しさん:02/01/12 01:24
>>39
ほう、向こうは単純だな!(笑

「データの格納/転送に利用される圧縮技術の限界を克服するもの」

の一節を見落としてるかのようにシャノン一辺倒だわ。(爆笑
んなのは会話する必要も無いと思わんのかね?
41名無しさん:02/01/12 01:27
回線も太くなったし、HDも大容量なので、圧縮なんてしなくてもいいんでないの?
42非決定性名無しさん:02/01/12 01:33
>>41
10年後のネット上すべてのデーター量を考えてみましょうや。
43非決定性名無しさん:02/01/12 01:51
>>42
10年後の回線の太さとHD容量も考えようyo
44非決定性名無しさん:02/01/12 02:53
>>42
「データー量」じゃなくて「データ量」ね、日本語は難しいYO。
45非決定性名無しさん:02/01/12 02:58
>>42
考えてみてよ。結果教えてよ。期待してるyO
4645:02/01/12 03:01
>>42
10年後じゃなくて、今現在でもいい。
考えてみてよ。結果教えてよ。期待してるYo
4745:02/01/12 03:14
>>42
今現在じゃなくて、10年前でもいい。
考えてみてよ。結果教えてよ。期待してるYo
48非決定性名無しさん:02/01/12 04:21
ところで、なんで1/100って予測できるんだ?
記者がDQNなだけか?(藁
49非決定性名無しさん:02/01/12 10:43
HDDの増量とともに情報も肥大化してるから
ぜんぜんよくないぞ
50非決定性名無しさん:02/01/12 11:27
うむ。エロ動画による情報爆発は
すでにのっぴきならネエですYO!!
5145:02/01/12 23:11
>>42
え〜10年前じゃなくて、100年前でもいい。
52非決定性名無しさん:02/01/13 00:23
人が一生に知覚・処理できる情報量もいずれ上界を抑えられる時が
来るに違いない。ムーア則の限界よりも情報の肥大化の停止の
方が先に来るのではなかろうか。などと言ってみたりするテスト。
53非決定性名無しさん:02/01/13 00:40
「人が一生に知覚・処理できる情報量の上界」=「情報の肥大化の停止」時の情報量?
5452:02/01/13 01:00
イコールとは言わないが・・・
何がしかの補正係数が掛かるとしても、
「情報の肥大化の停止時の情報量」を決定するキードライバーは
「人が知覚・処理できる情報量」だと思うのだが、どうだろう。
情報のフローのソースとシンクを考えたとき、ソースはともかく
シンクの量は(最終的なシンクが人である限り)人の情報処理能力に
依存するような気がする。
5553:02/01/13 01:04
ってゆーか、日本語になってないから、聞いたんだよ、あほ。
レスがまた、日本語とは思えない。
(笑
56非決定性名無しさん:02/01/13 01:07
>>53
君は「人に忘れる能力」があることを失念している。
まあ、寿命限界もあるからね。
5753:02/01/13 01:11
「ってゆーか、日本語になってないから、聞いたんだよ、あほ。 」
まともなレスするな。
5853:02/01/13 01:12
つか「人に忘れる能力」ってなに?
日本語?
5952:02/01/13 01:16
やれやれ。情シス板もレベル低くなったな。
>>55
フローのソースとシンクってどういう意味だかわかるか?
ヴァカSヨは企業スレに帰れよ(藁
60非決定性名無しさん:02/01/13 01:18
>>58
じゃバカな君に判り易く教えて上げよう。
君が経験した中学3年の期末試験で数学の点数を答えよ!
6153:02/01/13 01:19
「ってゆーか、日本語になってないから、聞いたんだよ、あほ。 」ってことをまず理解してね。あほ。
6252:02/01/13 01:20
ってゆーか、情報科学用語なんだよ。あほ。
理解できねえんだったら話に首突っ込んでくんな。どうせSヨだろ?
63非決定性名無しさん:02/01/13 01:22
>>61
ってことは、君は日本人じゃないのか?
日本語じゃないとして、何故に君は私の発言が理解出来るの?
一体これって何語なの?

# それにしても君の文法滅茶苦茶だな(笑
6453:02/01/13 01:23
ククク
ザンパク
SEじゃないとだめなの?
6553:02/01/13 01:24
>>61
出張32?
66非決定性名無しさん:02/01/13 01:25
>>62
> 情報科学用語?? (爆笑

これだから蒼尻学生は視野が狭い。
扱う情報が進化し続けてるのに何を言ってるのでしょうね?
きっとバカだ!
6753:02/01/13 01:25
motoi
>>63
6852:02/01/13 01:26
>>60
出張32氏?
>>64
もしかして真正さんですか?早く寝ないと学校に遅れるよ(藁
6953:02/01/13 01:28
チャット状態だな。
しかし、たまに変な残朴な知識を披露するやつがいて、情けない。
ど〜おもう?
70出張32:02/01/13 01:29
>>68
ご名答!
因みにタネあかしは66で済んでるよ。(笑
7153:02/01/13 01:32
ククク。出張32っ%
7253:02/01/13 01:33
アラシ?
自分でどう思ってるの?
7352:02/01/13 01:34
>>70
カテナスレのTSPでは世話になりましたね。
私のような投資業の人間は少なくともSヨよりは勉強していますよ。
7452:02/01/13 01:35
っと。上のレスは>>66が適切かな。
75出張32:02/01/13 01:36
>>72
53は単なる煽りさんで真性嵐さんでしょうね♪
そんな人にも親切な私です♪

# 無意味な発言はせめてsageでしろよ! (アホがぁ
7653:02/01/13 01:37
>>52
SEって何する人なの?
で、何勉強してるの?
7753:02/01/13 01:39
出張32ってなんか変な達観したスタンスもってて、嫌がられるの知ってる?YOUは?
78出張32:02/01/13 01:40
>>73
あんときゃスマンかったね。(ネタにつき合わせて...
ってかさぁ〜、何で方眼紙を例に出さなかったのよ。(やさしさ?
まあ、どの程度のお人がカテナを支持してるか確認したかっただけなのよ。
7952:02/01/13 01:43
真正君は放置、と。

シンクとはつまり生産された情報財の最終的な消費者を指すわけだが、これが
有機的な脳(ヒトネコイヌその他)に限定されている限り、
個体数×寿命×単位時間当たり最大情報処理能力、で上界を抑えることができる。
あるいはシリコン上に情報を消費する存在が現れたらまた別だろうけど。
80非決定性名無しさん:02/01/13 01:43
圧縮ですよねここ?
8152:02/01/13 01:47
>>78
方眼紙ねぇ・・・。NNが最適解でない例のっけてるサイト探したんだけど、
なかなか見つからなくてねえ。。
82出張32:02/01/13 01:48
>>79
その通りだけど、情報は外に置けるし加工さえ出来る。
そして再利用することも出来る。
その過程で、最新理論を習得するのに理論を定理として扱う術さえ知っている。

>>80
そうそう、今は圧縮の必要性からの派生を処理中(寄り道しまくり中)
8353:02/01/13 01:49
個体数=一匹二匹とか?
寿命=88歳まで生きましたとか?
単位時間当たり最大情報処理能力=???これっってなに?
8453:02/01/13 01:51
単位時間当たり最大情報処理能力の単位は?
8552:02/01/13 01:54
>>82
うん。だけど外に置いた情報はいずれは消費されなければならない。
加工をするにも(人手を介する限り)その人のI/Oがボトルネックになる。
機械同士の(知的な・あるいは付加価値を高める)やり取りがあれば別だけど、
そうでない限り全人類の感覚器にはボトルネックがある。そしてそのボトルネックは
早晩記憶機器の指数的進化によって追い抜かれる、のではなかろうか。
8652:02/01/13 02:00
ん。>>85の文がヘンだ。

>そうでない限り全人類の感覚器にはボトルネックがある。そしてそのボトルネックは
>早晩記憶機器の指数的進化によって追い抜かれる、のではなかろうか。

そうでない限り、全人類の消費できる情報財の量には限界があって、そのボトルネックは
早晩記憶機器の容量の指数的進化によって追い抜かれる、のではなかろうか、と。
87出張32:02/01/13 02:05
>>85
そこの点は何とも言えないね。
私としては、「人は間違う」ことにより偶然を見つけ出せる。
それを理論とも繋げる能力も世代を超えて経験出来る。

この場合、大事なのは個体数の多さと自由度それに世代踏襲だと思う。
装置にそれを代行さすほど人は忍耐強くないと思われます。

追伸
方眼紙の辺に沿って動くと、場合によって過去の訪問地にぶつかる、又は辺に沿って動くことが出来なくなるで証明終わり。
視聴者層を取り込むのは重要かもね。
8852:02/01/13 02:18
>>84
君はDVDの映画を何本同時に鑑賞できるかい?
もし1本なら(鑑賞してる期間の)単位時間当たり最大情報処理能力は4Mbpsぐらい(だっけ?。)
人が一生に見られるMPEG-2ファイルの量は(睡眠時間を削ったとしても)
100テラバイトに満たないんだ(MPEGのプロファイルにもよるだろうけど。)
8952:02/01/13 02:22
あと、どうでもいい話だけど、
>>87
TSPの場合、「過去の訪問地にぶつかる」「動くことが出来なくなる」ってことは
ない(移動はできる)ので、きちんとした証明を求められるとそれでは厳しいかもね。
90非決定性名無しさん:02/01/13 02:29
単位時間当たり最大情報処理能力の単位は「bps」ですか?(笑)
91出張32:02/01/13 02:38
>>89
違う違う!
私のネタ回答が間違いなのを証明しただけだって!
過去の訪問地にぶつかる(通りすぎる)=最短でない可能性!(方眼紙の真中を横断してみよう)
辺(線)に沿って動けない=最短でなくなる。

# そろそろお題に戻ろう!

圧縮について考えるとき扱う情報そのものを圧縮することと、
単位当りの情報量を増やすことによる圧縮とが考えられる。
で、今回の場合「情報そのものを圧縮する」ことについては不可能と言える。
よって後者を多角的な視野で可能性を追求してみょう!
ってことです。
9252:02/01/14 01:25
>>91
どうでもいい話をさらに。
グリッド上の都市の場合、等距離な場合の選択肢を恣意的に選べば
NN法によって最適解を得ることができるので、その主張は厳密には弱いと思うよ。
まあどうでもいいんだが。。。。
93困ります、名無しさん :02/01/15 19:00
http://www.watch.impress.co.jp/internet/www/article/2002/0115/zeosync.htm

---------------------------- 終了 ----------------------------
9415:02/01/15 20:02
>>93
虚偽の疑いね。やっぱそんなところだと思った。
95非決定性名無しさん:02/01/15 22:00
とどのつまりアホ−なベンチャーキャピタルから金を巻き上げようって
いう事だったんかな。それで引っかかったアホーは居たんかな?
96非決定性名無しさん:02/01/15 22:11
>>95
Ledの教え子やら自称投資業とやら。
97非決定性名無しさん:02/01/18 22:47
ど素人の漏れから見ても0と1しかないデータの圧縮に
1/100も行くと(ド限定データの俗)思えない。
98非決定性名無しさん:02/01/18 23:04
WiredにゼオシンクCEOのインタビュー出てるよ。
『ランダムなデータの「完全な圧縮」をうたう新技術は本物か(上)』
http://www.hotwired.co.jp/news/news/technology/story/20020117303.html
『ランダムなデータの「完全な圧縮」をうたう新技術は本物か(下)』
http://www.hotwired.co.jp/news/news/technology/story/20020118305.html
99非決定性名無しさん:02/01/22 20:05
高等数学の極地
100非決定性名無しさん:02/01/24 19:34
円周率100万桁を一番圧縮できるのはどのアルゴリズム?
円周率を計算する公式を除いてですが。
101非決定性名無しさん:02/01/24 19:39
>>100
π百万桁
102非決定性名無しさん:02/01/24 20:07
こういうのって罪になるのかな?>ゼオシンクのハッタリ
103非決定性名無しさん:02/01/25 01:50
>>100
各端末ごとに円周率100万桁を保持しておいて、ある信号がきたらソレをあらわすこととする。


円周率ってドコで計算しても(計算が間違ってなければ)同じ値だから、シャノンの情報理論的に言うと
情報量は限りなく0に近い。

ってのじゃ100の求める答えになりそうに無いよね。
どんな前提条件が足りないんでしょう?

104非決定性名無しさん:02/01/25 03:11
>>103
いや、情報量ゼロで正解でしょ。
105非決定性名無しさん:02/01/25 04:02
系列自体の曖昧さは0だからな。
106N.Matsushita:02/01/25 04:35
皆さん、圧縮についてお詳しいですか?
じゃ、ちょっとだけこれをチェックして見てもらえません?

これを行うことによって、確率的に同一のフラグの多く立っているデータを
抽出し、そこからデータを圧縮しデータ転送量を高めるための
アルゴリズムです。
(圧縮はこの場合、辞書型より統計型の方がいいのかな?)

1 ビットフラグ
A回線 1 1 0 1 1 0 1 0 1 0 0
B回線 1 0 1 0 1 1 1 1 0 1 0


2 分割(縦11 and 00 = 1 or 10 and 01 = 0)
縦10(10 = 1 or 01 = 0)(分割が0の時)
縦11(11 = 1 or 00 = 0)(分割が1の時)
分割 1 0 0 0 1 0 1 0 0 0 1
縦10 0 1 0 1 0 0 0 0 1 0 0
縦11 1 0 0 0 1 0 1 0 0 0 0

縦10+縦11 0 1 0 1 0 0 0 0 1 0 1

縦11と分割がともにビットがたっていた場合、縦10 + 縦11に対応するビットは0とする
分割にビットがたっていて縦11にたっていない場合、縦10 + 縦11に対応するビットは1とする

3 復元
分割 1 0 0 0 1 0 1 0 0 0 1
縦10+縦11 0 1 0 1 0 0 0 0 1 0 1
回線A 1 1 0 1 1 0 1 0 1 0 0

分割 1 0 0 0 1 0 1 0 0 0 1
逆縦10+縦11 0 0 1 0 0 1 0 1 0 1 1
回線B 1 0 1 0 1 1 1 1 0 1 0

分割と縦10+縦11からデータを復元するとき共にフラグが立っていた場合、復元したデータに0を入れる
逆縦10+縦11は、 縦10+縦11の値を反転する、ただし、分割にビットがたっていた場合、縦10 + 縦11に対応するビットと同値とする

第2回目
数値左右に移動する
右に3ずれる 1 0 0 0 1 0 1 0 0 0 0
元の位置のまま 1 0 0 0 1 0 1 0 0 0 1

分割(縦11 and 00 = 1 or 10 and 01 = 0) 1 1 1 1 1 1 1 1 1 1 0
縦10(10 = 1 or 01 = 0)(分割が0の時) 0 0 0 0 0 0 0 0 0 0 0
縦11(11 = 1 or 00 = 0)(分割が1の時) 1 0 0 0 1 0 1 0 0 0 0
縦10 + 縦11 (縦00時はビットを1にする) 0 1 1 1 0 1 0 1 1 1 0

分割が値1,縦10 + 縦 11 値1の時,復元は値0 を入れる
分割が値1,縦10 + 縦 11 値0 の時,復元は値1 を入れる
107N.Matsushita:02/01/25 04:42
あと、ちょっとお願いが・・・
圧縮技術に関する文献を探してるのですが
良いものやデファクトスタンダードになっているものを
教えてもらえませんか?

私は、現在、”最速のプロトコルをつくりたい!”

って(w プロトコルを作ろうとしている者なのですが・・・

http://tokyo.cool.ne.jp/imood/index.html

一応、ホームページも載せときます。
よかったら見て頂きたいです。

以上、
宜しくお願いします。
108非決定性名無しさん:02/01/25 21:26
>>107がどのくらいこの手の知識があるのか知らないけど、
まったくの初心者ならまず本屋の工学書の棚に行って情報理論と名のつく本を一冊買って、
情報源符号化の章を呼んで見ましょう。
109N.Matsushita:02/01/26 14:37
圧縮関係に関しては、はっきり言って、ド素人です。
(ごめんなさい
CPU(モトローラ製)の開発はしたことがあるので
CPUに最適な高速なアルゴリズムを探しているのですが・・・・
110非決定性名無しさん:02/01/26 21:41
せめてzipやLHAがどんなアルゴリズムで圧縮してるのかぐらいは知ってないと、
"車輪の再発明"になるよ。
111非決定性名無しさん:02/02/13 06:32

ここまで大風呂敷広げたんだから、事の顛末だけ教えれ

ここまで大風呂敷広げたんだから、事の顛末だけ教えれ

ここまで大風呂敷広げたんだから、事の顛末だけ教えれ
112非決定性名無しさん:02/02/21 22:58
http://www.zdnet.co.jp/news/0202/21/e_zeosync.html

>同社が最初に発表したときには,ランダムな128ビットのファイル(最も基本的なコンピュータ文字であるASCIIで16文字)
>を100バイトに圧縮するのに,1日以上かかった。

データ長さが増えてるんだけど、圧縮っていうんだろうか?
113非決定性名無しさん:02/02/22 14:39
>112
100ビットに訂正されてる
しかし、冗長圧縮以外にロスレス出来る方法ってなんかある?
114非決定性名無しさん:02/02/22 16:14
「ライト兄弟が空を飛んだ日,その場所に集まった科学者たちは,
人間が空を飛べるわけがないと声を合わせた。これが欠けている,
あれができていないと,そういった視点で世界を見る。
それが人間というものだ」

(・∀・)イイ!ね。詐欺師としては(ワラ
115非決定性名無しさん:02/02/22 16:52
世界レベルでハッタリかませられるのも、ある意味スゴイね・・・
116非決定性名無しさん:02/03/13 22:37
消えなる前に age (_ _)
117非決定性名無しさん:02/06/08 20:18
あれからどうなったのだろう
118非決定性名無しさん:02/06/08 21:17
業界のダニは死滅したみたいですよ
http://www.zeosync.com/
119非決定性名無しさん:02/10/14 01:24
これ、結局 ジンジャーと同じく消えたのか?
120非決定性名無しさん:02/11/24 19:02
データーに冗長度を付け加えて拡張を施す方向の研究も有用だと信じる。
パリティ、エラー訂正コード、で既に成されているけれども、まだ
終わったわけではないだろう。
121非決定性名無しさん:02/12/19 17:31
みなさんお詳しそうなので少し質問させてください。

WAVEファイルって音楽のジャンル(ジャズや演歌など)ごとに独特のパターンって
あったりしますか?
圧縮はあまりよく分からないのですが、音楽ジャンルごとに効率の良い
圧縮アルゴリズム(ロスレスで)つくれないかな?と思ったのもので・・・・・
122非決定性名無しさん:03/01/09 01:47
すべてのデータにこの圧縮は無理なわけだが、ありそうな話としては
URLのリンク。

考えようによっては、これ、商売になると思う。
ネットワークが常時接続になった昨今、ネットワークを介した大量の
データのやり取りはそれほど苦にならなくなってきている。
そこで、データを一時保管してくれるという形でのデータ圧縮。
(圧縮ではないんだけどね。)しかし、ただネットワークディスクでは
情報を見られちゃうんで、PGPを使う。
PGPでエンコードして、秘密鍵と保存したURLをファイルにして自分の
PCのHDにファイルとして保存。
扱いは、従来の圧縮ソフトと同じ。もちろん、このファイルを第3者に
送っても、ネットワークを介してデータを取得、デコードできる。

なんか、MacのiDisk見たいな気もするが、こんなんはどう?
メリットは、データの万が一自分のPCが壊れたときでもデータは
復元可能となるバックアップサービスみたいなことにもできるということかな。

だったら、バックアップサービスにすればという感じもあるが。
123山崎渉:03/01/11 11:44
(^^)
124山崎渉:03/01/18 14:46
(^^)
125山崎渉:03/03/13 14:04
(^^)
126山崎渉:03/04/17 09:42
(^^)
127山崎渉:03/04/20 04:17
   ∧_∧
  (  ^^ )< ぬるぽ(^^)
128非決定性名無しさん:03/05/20 00:06
129あぼーん:あぼーん
あぼーん
130あぼーん:あぼーん
あぼーん
131山崎渉:03/05/28 14:42
     ∧_∧
ピュ.ー (  ^^ ) <これからも僕を応援して下さいね(^^)。
  =〔~∪ ̄ ̄〕
  = ◎――◎                      山崎渉
132非決定性名無しさん:03/05/28 23:46
>>122
辞書圧縮で、データと辞書のマップを各URLに配置するとか、DNSとかUDDIみたいな階層型DBで中央管理するのはどうでしょう?
これなら、暗号化しなくてもいけるかなーとか思うんですが。
133山崎 渉:03/07/15 13:07

 __∧_∧_
 |(  ^^ )| <寝るぽ(^^)
 |\⌒⌒⌒\
 \ |⌒⌒⌒~|         山崎渉
   ~ ̄ ̄ ̄ ̄
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ
135山崎 渉:03/08/15 18:56
    (⌒V⌒)
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。
  ⊂|    |つ
   (_)(_)                      山崎パン
136(*^ー゚)b ◆.JqYhx/qlc :03/11/14 20:37
>>132
へ〜、詳しいですね。
137非決定性名無しさん:03/12/01 07:24
rar
138非決定性名無しさん
こういうスレがもっとほしいわけよ!