おまいら最速のファイル重複検索TOOLを作ろうぜ

このエントリーをはてなブックマークに追加
1デフォルトの名無しさん
今作っている所 データベースにハッシュ登録すると速いはず
2デフォルトの名無しさん:2007/06/08(金) 15:41:23
作る気も無いのにスレ立てすな
3デフォルトの名無しさん:2007/06/08(金) 15:46:47
まず32kバイトか64kバイト読み込んで、32bitのハッシュ値を計算します
この24bitをアドレスして、残りの8bitとファイル情報(サイズやファイルの位置)を記録します
同一アドレスが出現した場合、サイズと残りハッシュを比較して、これも一致した場合、
ファイルを1Mバイトほど読んでハッシュを計算します・・・
こんな感じでおねがいします

参考サイト
http://hp.vector.co.jp/authors/VA032597/Software/UnDup.html
41:2007/06/08(金) 15:51:10
早く作れよカス野郎ども。お前らそれしか脳が無いんだろ?(pgr
5デフォルトの名無しさん:2007/06/08(金) 15:57:19
べつに重複なんかあっても気にしなきゃいいと思うんだよね
61:2007/06/08(金) 16:01:56
早く作れよ
7デフォルトの名無しさん:2007/06/08(金) 16:07:45
test.exe c:\windowsって入力すると
そのサブフォルダにあるファイルの
先頭32Kバイトを読み込んで、
ハッシュ値、サイズ、ファイル位置を出力する
プログラムを作ろうぜ
なるべく高速に動作するやつで
8デフォルトの名無しさん:2007/06/08(金) 16:09:21
関係ないけどオッパイ画像とネコ画像を機械認識して別ディレクトリに移動しちゃうプログラムつくりたいぜ!
9デフォルトの名無しさん:2007/06/08(金) 16:24:13
猫耳娘のおっぱい画像はどこに移動させればいいんだ?
10デフォルトの名無しさん:2007/06/08(金) 16:29:33
衝突が起こりにくく、高速なハッシュ関数はどうやって作れば良いんだ?
CRCとか使うのが良いのか?
32Kバイト与えられたとして、32bitごとにXORとればばらつくか?
11デフォルトの名無しさん:2007/06/08(金) 17:58:27
ソレが分かったら苦労しねーよ
12デフォルトの名無しさん:2007/06/14(木) 14:56:46
多次元データベースなファイルシステム作ればよくね?
デスクトップ→画像フォルダ→猫フォルダで辿っても
デスクトップ→猫フォルダ→画像フォルダで辿っても
中に見えるファイルは同じになるようなの
13デフォルトの名無しさん:2007/06/14(木) 19:29:25
タグで絞り込むのと何が違うんだ?
14デフォルトの名無しさん:2007/06/14(木) 21:55:59
>>12
シンボリックリンクでも張りまくっとけ
15デフォルトの名無しさん:2007/06/18(月) 17:29:17
>>13
同じだけど、ファイルシステムとしてタグ付けをサポートしてるのってある?
WinもMacもUnixもそうなってないよね
16デフォルトの名無しさん:2007/06/28(木) 08:12:24
Googleとか、Yahooの検索エンジンとかって、八部とかあるからなぁ。

あたかも全部出てくるように言ってるけど、Google八部とか、Yahoo検索商売するなら、フジテレビとかTBSテレビの放送局と同じじゃないかwwwwwwwwwwww

誰か、Googleとか、Yahoo 超えるちゃんとした検索エンジン作れや!!!!!!
17デフォルトの名無しさん
エクスプローラでファイルサイズでソーティング