1 :
前スレ1 :
2005/12/26(月) 02:56:22
mplayer の問題なのか、 % mplayer * とやっても全部の動画が再生される前に落ちてしまうので わざわざ for i in *.wmv とかやってる。5年間のノウハウで何とかならんかね。
新スレおめ カレント以下のjpgファイルとかをシーケンシャルな名前で カレントディレクトリに持ってくる(リネームする) スクリプトを 書いたので採点お願いします. 使用例) $Rname wmv idol でカレントディレクトリ以下にあった*.wmvファイルが カレントディレクトリにidol001.wmvからidol00x.wmvという 名前でリネームされます. # 続く
5 :
4 :2005/12/26(月) 08:18:29
$cat ./script/Rname #!/bin/bash # parameter analyze SUF=$1 if [ -z $1 ] ; then echo 'no suffix specified. default: *.jpg will be used'; SUF='jpg'; fi PRE=$2 if [ -z $2 ] ; then echo 'no prefix specified. default X will be used'; PRE='X' fi # fatal situation? if [ $(find . -name "$PRE*.$SUF"| head -1) ] ; then echo ' Fatal situation. Please think again the prefix. Exit.' exit; fi # 続く
6 :
4 :2005/12/26(月) 08:20:18
# create operation list num=1 find . -name "*.$SUF" | while read fpath do echo mv $fpath $PRE$(printf %03d $num).$SUF let num=$num+1 done # Is this OK? echo -n 'Right?[y/n]' read ans # exec operation if [ $ans = 'y' ] ; then num=1 find . -name "*.$SUF" | while read fpath do eval mv $fpath $PRE$(printf %03d $num).$SUF let num=$num+1 done fi # 終わり
yahooで一杯になってた。ウワァァ-----。゚(゚´Д`゚)゚。-----ン!!!!
>>8 wget --referer=〜の行をコピペして実行したらウチではいけたよ
>>9 そうなんですか。うちでは
HTTP request sent, awaiting response... 404 Object Not Found
02:00:06 ERROR 404: Object Not Found.
とか言われてしまいます。なんでだろ
464.jpの115番台位(comic115.464.jp)以降のサーバーから連番DLできたかたいますか? 古めの108番にあるものはリファーとUAだけですんなり行くんですが 新しめのだと403エラーになります。(IEにコピペ直飛びだとOK URL同リファ→一段づつ削る、無し UA各種 -r -npでディレクトリDL 001.jpgで単品DL と思いつく限り試したのですがダメでした。 できたかたいましたらヒントだけでも結構ですので参考に教えて頂けませんか。 〆参考urlです p://comic118.464.jp/data/yosidaakimi/bananafissyu1/020.jpg
>11 Forbidden You don't have permission to access /data/yosidaakimi/bananafissyu1/020.jpg on this server. Apache/2.0.54 (Fedora) Server at comic2.464.jp Port 80
貼る前にチェックしたのですが今見たらエラーになりますね。 確認したところ464に一旦ログインしないとアドレス直貼りでも見れないようでした。 なのでWGETのhttpuser,passを設定したもののエラーになり ブラウザでも464にログインしただけでは駄目で一度該当巻のページに行くことで やっとIEコピペ飛びいけました。 難しい設定されてるようで連番は無理っぽい気がしてきました。。 もし同様にトライされてるかたいましたら気長に情報お待ちしております、ありがとうございました。
>>13 勘だけど、そのページのクッキーを解析してみな。
偽装はそれからだ。
キャシュ消して再確認したのですがクッキーは作成されておらず javascriptがあるだけでした。 スクリプトもxxx.jpgを表示、虫メガネ機能だけを書いたものでクッキー記述はなかったです。 またちょこちょこ調べてみます。ありがとうございました。
refferer?
リファラだけっぽいね。おいしくいただきました
20 :
名無しさん@お腹いっぱい。 :2006/02/15(水) 01:25:59
21 :
名無しさん@お腹いっぱい。 :2006/02/15(水) 07:17:57
464タイーホage
22 :
名無しさん@お腹いっぱい。 :2006/02/15(水) 07:37:36
>25 そうやって悩んでいろいろやっているうちに、 立派なUnix使いに成長していきますよ。
>>25 俺にもurabonのアドレスを片っ端から書いていた時代がありました。
29 :
名無しさん@お腹いっぱい。 :2006/05/05(金) 17:21:54
>>25 Firefox+FlashGotが(・∀・)イイ!!
GW中にエログ巡回して画像保存してその日に新しくダウンロードした画像のスライドショーのHTMLを吐き出すスクリプト書こうと思ってたのに もうGW終わっちゃうよう。いつでも書けるけどまとまった時間で書きたかったのに
32 :
名無しさん@お腹いっぱい。 :2006/05/06(土) 23:23:27
>>31 そんなの俺ならあきらめて俺も再帰だな
wgetに-lオプションつけて
33 :
名無しさん@お腹いっぱい。 :2006/05/07(日) 01:15:17
まじな話、grepのようなコマンドをほかのサーバにログインしないで かける方法ってないもんか
40 :
39 :2006/05/18(木) 13:24:58
画像120まであった。 100を120に訂正してね。
毎回UAのオプション付けるの面倒だから、 俺は~/.wgetrcに以下を追加してる user_agent=Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322)
43 :
名無しさん@お腹いっぱい。 :2006/05/27(土) 09:17:13
ダウンロードじゃないけど linux 版(wine版)の picasa が出たってさ
45 :
名無しさん@お腹いっぱい。 :2006/06/12(月) 13:04:46
トラジ復活age
46 :
名無しさん@お腹いっぱい。 :2006/06/15(木) 12:23:05
ようつべオワタ\(^o^)/
>>48 なかなか使えますね〜
ありがたく使わさせて頂きますです。(謝謝!
50 :
名無しさん@Vim%Chalice :2006/07/03(月) 23:02:34
>>48 オイラも便利に使わしてもらってます。
今まで泥臭くやってたけど
一発でhtmlパースしてgrepまでこなしちゃうスクリプト素敵。
perl使いカコイイなぁ...素敵なスクリプトありが豚です。
wget を使っているのですが、ファイルスタンプが、そのファイルが出来た日付たとえば、 2004/05/12見たいな感じで取り込まれてしまいます。 そうではなく、取り込んだ日付ex 2006/07/04に変更するwgetのオプションってありますか? wget -N かと思ったのですが、どうも違うみたいです。
touch しちゃうのはだめ?
54 :
52 :2006/07/05(水) 10:48:01
>>53 touchで行けました。ありがとうございました。
touchでは、空のファイル(0バイト)に強制的になるのかと思ってました。
時刻だけ変更できるのですね。
55 :
名無しさん@お腹いっぱい。 :2006/07/15(土) 11:40:15
さっきコミックをダウンロードして 早速DVDーRに落とそうとしたのですが容量が大きいんです。 それで圧縮したまま落としたんですが今度は コミックの画像をめくろうとしてもめくれなくなりました。 (すべて展開したときはめくれました) そこでDVD-Rにコミックを上手に落とすやり方を教えてください。
DVD-Rはポリカーボネート樹脂でできているから、 コミック程度の重さならどんな落しかたでも問題ないと思うよ。
57 :
名無しさん@お腹いっぱい。 :2006/07/15(土) 17:22:21
>>55 マジレスすると、ウインドウズ系の圧縮フォルダ機能は全て展開しないとページめくりは出来ない
結論
コミックくらい買え
unix系にはミーヤみたいなソフト無いの?
60 :
名無しさん@お腹いっぱい。 :2006/07/16(日) 00:17:49
wineじゃだめか
>58 xv -vsmap が結局便利なんだよな いいソフトあれば紹介よろしゅう
62 :
名無しさん@お腹いっぱい。 :2006/07/17(月) 22:18:09
refuse to dance
>>61 個人的にはgimv使ってる。以前はxzgvが軽かったので使ってたのだけど、
ZIPファイルに入った同人誌をそのまま読めるので乗り換えた。
俺もgimageview使ってる。 サムネイル表示出来て、画像表示も見やすくて、スケーリングが高品質な所が気に入ってる。
> スケーリングが高品質 ミーヤ(Intel)のイメージライブラリとどっちが上?
gimvではbilinear補間を使ってるけど、hyperbolicなんか使ったこともないし、 コミック類はnearestのほうがいいかなと思うけど、 いちいち切り替えるのがめんどうだからそのまんま。 で、どの方法と比較したいの?
68 :
名無しさん@お腹いっぱい。 :2006/07/24(月) 06:17:28
最近現れたのは拡張子が.shtmlでContent-type: text/plainな奴。 中身はHTMLで、画像へのリンクには乱数が入ってる。 つまりIEのContent-typeを無視するバグを利用しないと見れない。 とても嫌らしい。
>>69 HTMLのソースからリンク抜きだしてwgetなりに渡すんじゃダメ?
72 :
名無しさん@お腹いっぱい。 :2006/07/29(土) 16:42:00
宣伝?
74 :
71 :2006/08/01(火) 15:19:52
75 :
名無しさん@お腹いっぱい。 :2006/08/06(日) 14:23:15
過疎スレだな
This is the thread in UNIX board.
77 :
名無しさん@お腹いっぱい。 :2006/09/10(日) 13:07:12
hosyu
78 :
名無しさん@お腹いっぱい。 :2006/09/13(水) 16:44:20
pthread_join(
>>76 , NULL );
連番のH画像/動画を一気にアップロードする いい方法はない? yahooとかlivedoor みたいなとこで。
84 :
名無しさん@お腹いっぱい。 :2006/11/15(水) 13:15:50
JavaScript で window.navigator.appName 見てるとこって どうすればいいの?
85 :
名無しさん@お腹いっぱい。 :2006/11/15(水) 23:46:36
どうしたいの?
今までcurlのお世話になってきたけど、今日LWP::UserAgent使って書き直した。 ステータスが200でtext/html返してきた時にリトライするようにしたかった。
完璧だ。対artemisweb最終兵器かもしれない。
次はHTML::Parser使ってwget相当のも作るか。夢が広がりんぐw
ヒント:今日はクリスマス
plagger のプラグインをきぼん。
てすてす
HTML::Parser使ったwget相当のも出来た。
それ Plagger でできるお
test
連番ではないんですが、
imepita.jpなんかにうpされた画像を自動巡回して拾い集めたいなと思っています。
例えばこんなのとか
http://imepita.jp/20070402/701450 このurlをブラウザーで開くと普通にみれるのですが。
curlやwgetでこのURLを開くと404になってしまい、
htmlが取得できず困っています。
うpされた画像のアドレスと表示用のURLに相関関係がないのでhtmlを調べないと画像が取得できません。
どなたか偉い方よろしくおねがいします
>>96 お約束の User-Agent: とか Referer: あたりはどうよ。
ブラウザーで直接開いてみれたので、Refererは試していませんでした。 User-Agent:は試したのですが変わらず・・・。 ちょっとRefererもやってみます。
refererいれても変わりませんでした
>>96 Accept-Language: ja
とかは?
101 :
96 :2007/04/03(火) 08:31:48
>100 神! ありがとうございました
102 :
名無しさん@お腹いっぱい。 :2007/04/10(火) 23:16:28
みなさんが、 連番のH画像/動画を一気にダウンロードしたものを僕に下さい(>_<)(>_<)
104 :
名無しさん@お腹いっぱい。 :2007/05/01(火) 13:54:45
imageFAPの画像を wgetでおとすのは難しい? 落としかた教えてください
ああ、ここUNIX板だから grep -o はまずいか。perl -ne 'print $& if m{pattern}' とかで。 あとは sleep もいれたほうがいいかも
俺んとこlynx入ってなかったのでsedとcurlで
$ cat hoge.sh
#!/bin/sh
curl -s "$1" |
grep imagevenue |
sed -n -e "s/href='\\([^']*\\)'/\\
HREF=\\1\\
/gp" |
sed -n -e "/HREF=/s/HREF=//p" |
while read URL
do
dir="`dirname \"$URL\"`"
file=`curl -s "$URL" | sed -n -e '/thepic/ {N; s/.*SRC="\([^"]*\)".*/\1/p;}'`
curl -s --referer "$URL" -O "$dir/$file"
done
$ ./hoge.sh '
http://infostore.org/info/3078906?refer=2257986&rs=2 '
勉強になるなぁ(何の???)
111 :
名無しさん@お腹いっぱい。 :2007/05/05(土) 19:36:37
>>111 imagefapは
(1) ギャラリーページから全てのギャラリーページのURLを抽出
(2) 各ギャラリーページから画像ページのURLを抽出
(3) 画像ページから画像ファイルのURLを抽出
という手順になると思う。(3) のURLはJavaScriptでブラウザに生成させてるのでwgetとかでは無理っぽい。
最近ぐっと来るネタがないっすねぇ
最近のエロ画像はZIPで固めてrapidshareだからなあ
120 :
118 :2008/01/03(木) 01:46:07
>>119 さっそくの助言、ありがとうございます。
とりあえず curl をインストールして試してみました。拝見したところ、外部リンクになっているのを直接指定していますね。
これを Unix のコマンドの組み合わせで
・画像一覧ページから
・個別の画像、もしくは画像表示ページへのリンクを辿り
・自動で巡回して、一定サイズ以上の JPG はダウンロードする
ということはできませんでしょうか? 趣味と実益を兼ねて、こんな感じの Blog を巡回することが多いのです。
だめだったら Win のダウンローダーでも探しますが、やはり Unix で覚えたいので。
お手数ですが、よろしかったらお知恵を拝借させてください。m(_ _)m
wget -r -l 2 とかで。あとは wget --help の↓に気をつける: 再帰ダウンロード時のフィルタ: -A, --accept=LIST ダウンロードする拡張子をコンマ区切りで指定する -R, --reject=LIST ダウンロードしない拡張子をコンマ区切りで指定する -D, --domains=LIST ダウンロードするドメインをコンマ区切りで指定する --exclude-domains=LIST ダウンロードしないドメインをコンマ区切りで指定する --follow-ftp HTML 文書中の FTP リンクも取得対象にする --follow-tags=LIST 取得対象にするタグ名をコンマ区切りで指定する --ignore-tags=LIST 取得対象にしないタグ名をコンマ区切りで指定する -H, --span-hosts 再帰中に別のホストもダウンロード対象にする -L, --relative 相対リンクだけ取得対象にする -I, --include-directories=LIST 取得対象にするディレクトリを指定する -X, --exclude-directories=LIST 取得対象にしないディレクトリを指定する -np, --no-parent 親ディレクトリを取得対象にしない
以前に別スレで質問を投げたことがあるのですが、うまい解決方法に行き当たらなかったのと、
今やそのスレが消えてしまったため、もう一度ここで質問させてください。
例えばここに置いてある松金洋子のデスクトップ用壁紙画像をターゲットとします。
http://www.sexydesktop.co.uk/youko.htm ここには全部で4ページ分48種類の松金洋子の画像があります。
このサイトの画像はすべてデスクトップ用の壁紙を目的としているので、
一つの画像に関して数種類の解像度・縦横比の画像が用意されており、
アクセスしてきた人の使っているディスプレイ解像度を検出しては、
最適な解像度のものを優先的にプッシュするようになっています。
また、画像ファイルの命名ルールは非常に単純かつ形式的で、
たとえば例に挙げた松金洋子の画像の場合、
まず画像の名前を表す youko1 から youko48 までの48種類の画像が用意されています。
さらにそれぞれの解像度を表す 1280x800 や 800x600 の文字列が続き、最後に拡張子 .jpg が付いています。
注意する点は、例えば youko48 に対して youko01 だとか、1280x1024 に対して 0800x0600 といった、
命名上の「桁数合わせ」が一切行われていないという点です。
ここから先が質問です。やりたいことは、 1). サイトがプッシュしてくるこちらのディスプレイ解像度に関係なく、 すべての画像に関して、より解像度の大きい物を、 番号の一番若いものから古いものまで全種類取って来たい。 2). その際、取って来た画像のファイル名を修正して、 youko48 に対しては youko01 、1280x1024 に対して 0800x0600 など、命名上の「桁数合わせ」をしたい。 3). さらに、ファイル名の中の画像名を表す文字列と、解像度を表す文字列とを _ で結ぶようにしたい。 具体的には、youko11600x1200.jpg と名付けられた youko1 という画像の 1600x1200 版のファイル名を、youko01_1600x1200.jpg としたい。同様に、youko481280x1024.jpg と名付けられた youko48 という画像の 1280x1024 版のファイル名を youko48_1280x1024.jpg としたい。 以上をまとめると、参考例の松金洋子の画像で言えば、 youko11600x1200.jpg から youko481280x1024.jpg までの画像を、 youko01_1600x1200.jpg から youko48_1280x1024.jpg として保存したい。 これを実現するスクリプトをどう書けばいいでしょうか? なお、好みのタレントの画像が何種類用意されているか(松金洋子の場合は48種類)については、 ダウンロードを開始する前に手作業で調べることとします。
>>123 コントンジョノイコ
スレタイを読んでからスクリプトスレに行け
>>122 >これを実現するスクリプトをどう書けばいいでしょうか?
変な書きかたをせずに普通に書けばいいと思うよ
>ダウンロードを開始する前に手作業で調べることとします。 むしろここをやりたいのかと思った… :-P
とりあえず自分で書いたとこまでうpすればみんなが添削してくれる まず自分で書くんだ
128 :
名無しさん@お腹いっぱい。 :2008/03/03(月) 14:00:03
wgetでダウンロードすると同名のファイルだと.1, .2とsuffixがついてしまいますが これを-1.拡張子とすることはできないでしょうか? 通常は hoge.html, hoge.html.1, hoge.html.2 とファイルが出来て行くものを hoge.html, hoge-1.html, hoge-2.html と名付けられて欲しいのです。
zsh 記法なら for i in *.1 *.2 do j=${i:r} mv -i ${i} ${j:r}-${i:e}.${j:e} done
ありがとうございます。ダウンロードした後でリネームするのがいい方法ということですね。 なるほど、-iをつけて重複したものに上書きするのを防ぐというわけですか。 自動でユニークなファイル名をつけるにはもうちょっとシェルスクリプト書けば良さそうですね。 wgetでダウンロードする時点ではでないんでしょうか。 for i in *.1 *.2 は *.整数 なもの全てに対応するには *.[0-9]* でいいのだろうか。 でもこれだと .3g2 もひっかかるか。
ああ*.222.htmlなんかも引っかかってしまうから全くだめですね。
#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "
http://www.candydoll.tv/images/ ";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf"%s-images%02d", $f, $i
$url = sprintf "%s/%s.jpg",$baseurl,$imgname; system "wget " . $url;
$cnvcmd = sprintf "jpegtopnm %s.jpg > %s.pnm",$imgname,$imgname; system $cnvcmd;
}
$a = "pnmcat -lr ". sprintf "%s-images01.pnm ",$f; $a .= sprintf "%s-images02.pnm ", $f; $a .= sprintf "> %s-images_a.pnm", $f;
system $a;
$a = "pnmcat -lr ". sprintf "%s-images03.pnm ",$f; $a .= sprintf "%s-images04.pnm ", $f; $a .= sprintf "> %s-images_b.pnm", $f;
system $a;
$a = "pnmcat -lr " . sprintf "%s-images05.pnm ",$f; $a .= sprintf "%s-images06.pnm ", $f; $a .= sprintf "> %s-images_c.pnm", $f;
system $a;
$a = "pnmcat -tb ". sprintf "%s-images_[abc].pnm |pnmtojpeg > %s-image.jpg",$f,$f; system $a;
}
system "rm *.pnm";
なんでpnm介してるの?
Webには 12 34 56 といった形で分割されてあげられてるんだけど、 これをうまく結合する方法を思いつかなかったんで一旦pnmに変換したんですよ。 なにかいい方法はないもんでしょうか。
よくわからんが、ImageMagick で convert -append / +append かな?
136 :
132 :2008/03/24(月) 02:21:15
>>132 の8行目の末尾にセミコロンがないのを今更見つけたのもありますが、
>>135 さんの助言のおかげで無駄な変換をしないように修正したものをあげておきます。
#!/usr/bin/perl
@tmp=("Alina-G", "Anastasia-S", "Anna-T", "Anna-Z", "Iryna-M", "Kateryna-V", "Larisa-H", "Oksana", "Olga-S",
"Olha-D", "Sasha-D", "Sasha-L", "Svetlana-T", "Ulyana-A", "Ulyana-M", "Valeriya-L", "Victoria-D", "Victoria-S", "Yuliya-S", "Yuliya-Z");
$baseurl = "
http://www.candydoll.tv/images/ ";
foreach $f(@tmp){
for ($i=1 ;$i < 7;$i++){
$imgname = sprintf "%s-images%02d", $f, $i;
$url = sprintf "%s/%s.jpg", $baseurl, $imgname; system "wget " . $url;
}
$a = sprintf "convert +append %s-images01.jpg %s-images02.jpg %s-images_a.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images03.jpg %s-images04.jpg %s-images_b.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert +append %s-images05.jpg %s-images06.jpg %s-images_c.ppm", $f, $f, $f;
system $a;
$a = sprintf "convert -append %s-images_[abc].ppm %s-image.jpg", $f, $f;
system $a;
}
system "rm *.ppm";
10才とか12才とかって部分には誰もつっこまないのね
必ずしも皆サイトの方を見ているとは限らないって
139 :
名無しさん@お腹いっぱい。 :2008/04/20(日) 01:18:07
双葉ちゃんねるの画像をまとめてDL出来るローダーってありますか? 僕の使ってるやつだとサムネイル画像しか落とせないんですが。
双葉ちゃんねるってものすごく見にくいんだけど 2chブラウザみたいなやつでもあるの? 流れにまかせて適当に見るのが筋なのかな。
141 :
名無しさん@お腹いっぱい。 :2008/05/06(火) 23:35:44
すんませんH画像じゃないんだけど、NHKニュースの動画の落とし方分かる人いませんか
http://www3.nhk.or.jp/news/ 最近リニューアルしてから、ダウンロード出来なくなりました。
ブラウザのキャッシュにも残りません。swfを間にかましてるみたいです。
宜しくお願いします。
>>142 うまくいきました。丁寧に教えてもらって感謝です。
144 :
名無しさん@お腹いっぱい。 :2008/05/31(土) 18:03:17
なんだこりゃ。ひどいな。
今の最新のダウンロードスクリプトは何ですか?
やっぱzshのスクリプトじゃね?
グロ画像対策ってどうしてます?
グロ画像好きになればいいんじゃないかな?
150 :
名無しさん@お腹いっぱい。 :2008/09/21(日) 11:29:13
ウイルスにじゃから内容にね
151 :
名無しさん@お腹いっぱい。 :2008/09/27(土) 21:48:19
152 :
名無しさん@お腹いっぱい。 :2008/11/13(木) 19:08:26
梶谷秀
153 :
名無しさん@お腹いっぱい。 :2009/01/06(火) 01:43:12
双葉がjavascript有効じゃないと落とせなくなった。 なんかいいツールはない?
Firefoxと赤福使ってる。スクリプトでの取得はあきらめた。
156 :
名無しさん@お腹いっぱい。 :2009/03/26(木) 19:55:23
157 :
名無しさん@お腹いっぱい。 :2009/04/17(金) 11:58:35
>>158 うん、逆だな。
その他にも、幾つかバグがあるようだ。
でも、転送制限があるサイトなので、あんまり使う気しない。
※だいたい160枚前後で、転送休止ってどうなのよ?
壁紙の配布サイトがあるのだが、1枚1MB程度の壁紙が2000枚近くある。 これを一気にダウンロードすると、相当な負荷をかけると思うので数秒おきにダウンロードするようにしたいのだけど、そんなことできる?
161 :
160 :2009/07/21(火) 01:35:29
追加情報で、サムネイル画像はthumbという文字列がファイル名に入ってるのでそれも除外することで、ちょっとは負荷をへらせると思う。
162 :
名無しさん@お腹いっぱい。 :2009/07/21(火) 01:59:57
>>160 よくわからんが
>数秒おきにダウンロードするようにしたい
っていうのが要件であるのならsleepでもかませればいいんでないの。
固定時間で、ダウンローダ使っているのを推測されるのが嫌なら
(そういうサイトがあるかはしらないけど)
sleepの引数を範囲絞って乱数にすりゃいいし。難しくはないだろ
163 :
157 :2009/08/18(火) 23:34:32
>>163 解凍してみたが、readme.txt ehg.txt
しか見当たらない。
get.plはいづこに?
現在特許申請中です
166 :
157 :2009/08/20(木) 15:44:14
>>166 おお、サンキュー
早速、ゲット開始。
なんか色々新しくなってるね。きちんとエラー処理してあって
便利になってる。
スクリプトいぢって遊んでみるわ。ありがとう。
168 :
187 :2009/08/20(木) 22:41:18
355行目の mkdir ("$dirname", 777) or die $! ; のmaskを、0777に変更しないとうまく動作しなかった。 デレクトリィは、できるけど書込み出来ない。 perl, v5.8.6 built for darwinでの動作報告
169 :
167 :2009/08/20(木) 22:42:18
未来へ、小パス
170 :
157 :2009/08/21(金) 09:25:11
>>168 報告ありがとうございます
直すかreadmeに入れておきます
171 :
157 :2009/08/25(火) 22:42:42
>>171 動いたずら。
fap.plの改行コードがCR+LFだった。
つーるのつかいかたがわかんないです><
175 :
名無しさん@お腹いっぱい。 :2009/10/09(金) 19:12:20
>>166 ありがたいです
しかし、100枚超えると普通にはじかれますね・・・
串どうやって刺そうかな
177 :
名無しさん@お腹いっぱい。 :2009/10/09(金) 22:49:02
178 :
157 :2009/10/10(土) 17:32:40
>>176 待つ時間を長くすればするほど
単位時間のダウンロードの大きさが減るので、
730行目あたりの関数 waitp を
sub waitp {
# wait process and random sleep.
# process sleeps while ??? seconds, not "msec".
#
# if you want to use "msec" unit, use "select".
# same effect of 'sleep' while 250 msec is,
# "select(undef, undef, undef, 0.25) ;".
# but, can't use progress bar.
my $base = 10000 ; # random sleep from 1 sec to $base/1000 sec.
my $t = int ( rand ($base) / 1000 ) ;
progbar (++$t) ;
return 1 ;
}
などと書き換えてみてください。
帯域制限がかかりにくくなります。
>>178 thx!
ここへは検索でたどり着いた他所者で申し訳ないが助かるわ
昔入社直後にならったプロンプト程度の知識でもいけるもんだな・・・使う分には
g.e-hentai.orgのスクリプトの使い方がよくわからなくて困っています 付属のReadmeを読んでみて自分なりに試してみたのですがうまくいかず 本体を起動すると黒い窓と文字が一瞬表示されるのですが すぐに消えてしまうためなんとかプリントスクリーンで撮影して そこに書いてあったリストの作成などもしてみたのですけどダメでしたorz プログラムなどの知識皆無なのでそもそも場違いとも思うのですが、 どなたか教えていただけないでしょうか?
>>181 g.e-hentai.orgからアクセス制限がかかってる現在の状況下で
さらに自分で調べもしない人間達にでも使えるように説明しろと?
正気ですか?
お前の目の前にある箱はなんだよ?飾りか?
>自分なりに試してみたのですが
もっとやれ
もっともっとやれ
救いな事に
>>157 氏のファイルはインチキじゃない
自分で勉強すれば必ず結果が伴う
黒い窓とか釣りだろ。
>>181 Linux勉強してLinuxで実行するといいよ
184 :
名無しさん@お腹いっぱい。 :2009/10/20(火) 09:36:45
e-hentaiの制限が2日ほど続いているのですが、 皆さんはどれくらいの期間、制限かかってます? 初めのころは1・2時間程度だったのになあ。
185 :
名無しさん@お腹いっぱい。 :2009/10/21(水) 21:16:44
と思ったらTor串焼かれまくってて笑った これだけ神経質だとISPごとアク禁とか何のためらいもなくやりそうで怖いなw
ちくしょーーーー!実行してもスクリプト弾かれちまう…なんとかならないかなぁ
189 :
名無しさん@お腹いっぱい。 :2009/11/17(火) 02:10:06
He_252405.zip ぱす chinko E-Hentaiからダウンするなら最近これ使ってるけどな。 転送制限もなぜかかかりにくい。600枚位連続で落としたが、まだいけそうだ。 どやって回避してんのかな。 Win用だからスレチかもしれんが。
帯域制限かかってからはや3日が過ぎた いつ解除されんのかな
>>189 ちょっと、試してみた。
結局おれんトコでは、150枚くらいで転送制限になった。
転送制限中ですよ画像も、ダウンロードしちゃうよ。w
>>190 もう、そろそろじゃない?
五日くらい制限喰らった時も有ったような。
509 bandwidth exceeded
you have temporarily reached the limit for how many images you can browse
-if you haven't already, you can double
your daily quota simply by signing up for
an absolutely free forums account at,
http://forums.e-hetai.org/ - you can run the hentai@home distributed image server to help us serve more images.
this will give you points which can be used to increase your page view limit,
and cache files locally so they are ready when you wish to view them.
(check the news dorum for moredetails and signup information)
please understand that e-hentai galleries is a free service, and to keep it free we
must limit the amount of images anyone person can view.
if you come back in a few hours, you will be able to download more.
暇だから写した
157氏のスクリプト試したら4枚で…
閲覧や手作業での保存も出来ず悶悶
解除されたらチンコの試そう
>>191 そんなにかかるのか
確認に行って509返されて期間延長とかないよな
>>195 画像ダウンロードアプリですよ。
ダウンする時に、サムネイルプレビューが見えるのが親切設計。
転送制限回避は、どうも環境によるとしか胃炎。つーか、分からん
うpしてちょ…
tumblrのRSSフィードから画像をダウンロードするスクリプトとか 誰か作ってませんか?
157氏のスクリプト、この前までは順調に使えてたが、 今日また使おうとしたら、 Invalid argument at get.pl line 438. って吐き出して止まってしまう・・
e-hentaiのちょっと古めのCGが見れないぜー
202 :
157 :2009/12/06(日) 20:01:16
>>200 239行目でもwww無しでURLチェックしてるので
そこにもwwwを加えてください
作成した時は多分wwwが無かったのだと思います
>>201 原因不明です
URLお願いします
204 :
200 :2009/12/06(日) 22:50:08
エディタによって行数が変わってしまって239行目がどこか分からず 秀丸使ってるんだけど239行目はmakedir中のprint〜でURLチェックとは無関係だす とりあえず数箇所URLでimagefap.comがあるところの前(cache.imagefap/com除く) にwww.をつけたらエラーなしで動いたけど今度は指定URLとは関係ないギャラリーの画像を取得した 保存されたフォルダは指定URLと同じ番号なのに中身が別物、別のギャラリーとか思って調べてみたけど 同じファイル数のギャラリーが存在してなかった、なんぞこれ
e-hentaiの件 見れるのと見れない画像の差を理解した。 ヒントはおまいらの好きなタグだw そのタグに入ってたのは一切見れなくなってて やっぱりなーと思った。
P2Pが仕様できないわが身としてはe-hentaiが頼りの綱だったのだが 困ってしまうなぁ
何個か上げりゃポイントでDL出来るんだからそれで妥協すりゃいいじゃん
どのくらいのポイントでどのくらいダウソできるの?
必要なポイントはファイルサイズとファイル数によるし、 もらえるポイントは他人の閲覧数とDL数で決まるからサムネイルで食いつきそうなの上げればいい 長くお世話になる気ならいつ使えなくなるか分からん上に更新も期待出来ないツールより、 いくつか定期的に提供して数クリックで快適にDL出来る方が俺にとっては便利だからそうしてる
ロリ系が全く開かんなっとる…(´・ω・`)
復帰しないのかねえ
規制が反発をより強くするだけだと なぜ分からないのか・・・愚か過ぎる
趣味でやってるようなもんに何言ってるんだ 向こうはいつでも閉鎖できるんだし
上の神スクリプトでさ、 例えば100枚落として弾かれたら、次は101枚目からDL開始するとかは出来ないんでしょうか。
e-HENTAIの制限は、要は短期間に複数の画像ファイルにアクセスするのを制限してるんですよね? だったらスクリプトが一枚画像にアクセスしたらインターバルを置いて(手作業で開いて保存するくらいの時間?)、 次のファイルにアクセスするようにすれば良いんじゃないでしょうか? 時間はかかるかもしれませんが、一枚一枚手作業で保存する手間を考えれば妥協できると思うんですが…
同じものを同じ条件でダウソしてもダウソ可能数が変動するから インターバルとかダウンロード容量以外の影響も受けてると思う そうなると全く分からん そもそも各IPで制限してるのかすら分からないんだよ 串かましてダウソできてもダウソ可能数がまた違う
へたれプログラマの俺でも永久動作のEHGダウソソフト作れたよ 既に公開されている素晴らしいツールらを組み合わせて何とかなった ヒマがあったら作ってみたりゃ良い
永久動作のヒントだけでも教えてくだされ神さまよ
avtokeiのプロフを落とすために24時間のスクリプト仕掛けた。 画像は一気に落とせたんだがなあ。
E-hentai以外で似たようなサイトはないものかね
まぁいろんなところからかき集めれば同じなんだけどね
223 :
名無しさん@お腹いっぱい。 :2009/12/16(水) 20:31:50
規制無くならないのかねぇ・・・ サムネでロリっぽい画像使ってるやつも入れなくなってるみたいだし
224 :
名無しさん@お腹いっぱい。 :2009/12/19(土) 02:10:14
509 BANDWIDTH が 出ちまった・・・ 1枚1枚ダウソしてたが 150枚くらいで。どうにかならないか…泣
E-hentaiに10個ほどうpして、 最初の数日はどんどんポイントが溜まっていった。 しかしこの頃は一日に100P入るかどうか、 日がたつにつれてgalleryごとにもらえる ポイントのレートが下がってるのかな
E-hentaiの画像をまとめて保存出来るツール教えてください
半年ROMれ
rapidshare のものを(スピードは遅くてもいいので)
batch 処理で落とすためのスクリプトってないのかな?
最初の URL を wget でもってきて html を覗いて
<form action="
http://... " method="post"> がそれっぽいんだけど
それを直接 wget しても×なんだよね…
IP代わんないと連続では無理
freerapidがjavaで出来てるからひょっとしたら動くのかも
e-hentaiって解除確認に行って509だったら期間延長とかされんのかな。
それは関係なし
e-hentaiブラウザが縦に長くなってどれも見れなくなっちゃった これが規制なのかな
235 :
名無しさん@お腹いっぱい。 :2010/01/13(水) 23:24:43
どーなってんだろうね。 サムネまでは見れるが、そこから画像にアクセスしている気配すらない。 原因はなんなんでしょ。
e-hentaiはUpしてもいちいち既出だ既出だと騒いでくるから鬱陶しい
e-hentaiはダウソする場所ではなく、どういうものがあるのか確認する場所だと思ってる 必要ないもの集めても仕方ないし、特定のものだけでも手間かかりすぎる
perl WWW::Mechanize の練習にちょうどいいかもしれないな
e-hentai用のスクリプトを書いたけど リファラ,user-agentとクッキーを設定してやったら スレッドは1つだけど退避時間もなしで、 509でなくなったよ。
あまりえげつないことやると向こうも対策してくるからほどほどにするようにw
*.listファイルを作ります。 ↑ これの作り方わかんないだけど、どうやんの?
>>242 うpされてから半年間はそんな質問はなかったな
他と比較して自分の理解力を身をもって知るべきだ
短く言えば "アホは来るな"
>>189 のツール使ってるんだけど、急に弾かれるようになっちゃった…
Your IP address is not allowed to access that
Your IP address has been temporarily banned for using automated mirroring/harvesting software and/or failing to heed the overload warning. The ban expires in 56 minutes 23 seconds
だって…
WIN向けだからここで聞くのも間違っている気もするんだけど、何か対策されたのかな?
元々運が良かっただけとか てか再うpきぼんぬ
>>244 俺も弾かれるようになった
おそらく対策されたんだろう
いままで対策されなかったのが不思議だったし
やはり対策されたのか… もともと発祥のちんこロダもなくなっちゃったし、ばーうpの方法もないし、対応難しいかなぁ
>>245 なんとも図々しい。
頼み方も知らないのか。
e-hentaiって有料なの? あれだけのデータをただで見れるとか怖くなっちゃうんだけど
197 名前:名無しさん@ピンキー[] 投稿日:2009/12/28(月) 17:04:38 ID:a4+zYW5n0 E-Hentaiって、有料なんですか? freeとあるから無料なのですか?
>>251 244 :名無しさん@お腹いっぱい。:2010/01/18(月) 09:27:43
>>189 のツール使ってるんだけど、急に弾かれるようになっちゃった…
Your IP address is not allowed to access that
Your IP address has been temporarily banned for using automated mirroring/harvesting software and/or failing to heed the overload warning. The ban expires in 56 minutes 23 seconds
だって…
WIN向けだからここで聞くのも間違っている気もするんだけど、何か対策されたのかな?
246 :名無しさん@お腹いっぱい。:2010/01/18(月) 17:25:43
>>244 俺も弾かれるようになった
おそらく対策されたんだろう
いままで対策されなかったのが不思議だったし
前レス読んだ?急に真剣になってバカじゃないの??
別人に何を言ってるんだ
254 :
名無しさん@お腹いっぱい。 :2010/02/02(火) 00:50:57
2スレ目でそろそろ「基本テク」をおさらい・まとめて おかないといけないんじゃないかな… ページソースや直URL確認 wget --referer オプションやら -r -l などなど zsh の連番技法 {001..052}.jpg とか >255 html 解析から a href= 抽出するのは grep -o が使えたのか
前スレを見てみたい 方法の改良論とかもありそうだし
先ほど509になってびっくりしてググったらここに来ました 何だか知らないけどよろしくお願いします とりあえずスレ見たらアク禁解けるまで待てと書いてあるので待ってみます
そういや157のツールでe-hentaiの古い画像が見れないのってどうなった?
e-hentaiの画像を簡単に多く取れるツール作って欲しい
作った…
おめでとう。
265 :
名無しさん@お腹いっぱい。 :2010/02/14(日) 19:08:52
欲しいと言われると腕がなるのでおいらも挑戦してみた。
千枚保存するのに20分掛かったが帯域制限には引っ掛からなかったよ。
これが
>>262 の想いに届いたなら幸せだ。
http://www1.axfc.net/uploader/File/so/38900 スクリプト起動したら"URL>"のプロンプトにギャラリートップのURLを入力してくれ。
複数のURLをテキストファイルに書いてリダイレクトで食わせてもOK。
後は放っておくだけでギャラリーIDのサブディレクトリを掘って画像を保存するよ。
GPの増やしかた教えてくれ
e-hentaiってgzip転送しているように見えるけど phpスプリクトは対応してますか? 負荷掛けるのはいくない
リファーとクッキー設定してないけど いいのだろうか
リファラー?
サムネイルしか保存出来ないんだが対策されたのだろうか
そもそもphpの開き方がわからない俺orz
272 :
263 :2010/02/15(月) 21:12:03
クッキーないと画像は落ちないよ。 wget なら --keep-session-cookies 併用して表示ページを経由する。 オリジナルをダウンロードする場合はログインスクリプト書いて そのクッキー使う。DL数に厳しい上限あり。 ログインしておけば通常の画像も帯域が増えるよ。
274 :
名無しさん@お腹いっぱい。 :2010/02/15(月) 22:01:39
>>262 は「e-hentaiの画像を簡単に多く取れるツール作って欲しい」と言ってるんだから
あながち嘘ではない。ソースあるんだから、なんとかしたい人ならこれをベースになんとかする。
275 :
名無しさん@お腹いっぱい。 :2010/02/15(月) 22:57:20
この過疎地で1日のレスがこんなに付くとは思わなんだ
>>265 だが
一週間の掲載期間は長かったかしら。
まぁ洒落なんだからそんなに突っ込まないでくれ。
こんなところでそのまんま自前のソース広げて使われ
まくった挙句に変な対策でもされたら面倒だからね。
>>267 phpはgzip展開圧縮も普通に出来るよ。
リファラーってどうやってせっていすんお?
$ua->agent("Mozilla/5.0 (Windows; U; Windows NT 6.0; rv:1.9.2) Gecko/20100115 Firefox/3.6 (.NET CLR 3.5.30729)");
$ua->proxy('http', '
http://127.0.0.1:65536/ ');
get.plでダウンロードできなくなってるんだが… 対策されたか?
確かにget.pl使ってもエラー吐かれるな
どんなエラーでてんの? こっちも対策するぞ
こんなん
** make directory **
the list name is 0f9cd89d5b.list.
the directory name is 0f9cd89d5b.
0f9cd89d5b does exist.
doesn't make a directory.
** get 98 pics **
get pic's html file (1/98).
get html : success. (200 OK), [dummy.html]
get [0] ...:
HTTP::Response=HASH (0x2fd6994)->status_line, [0] : failed to download pic. try a
gain (5/5).
wait/sleep 3 sec : [***]
これを5回繰り返して止まる
対策っていうか, 多分画像が貼ってあるページの構造が変わって,
scrapeimgname() と scrapeimgurl() がファイル名と url を
抽出できなくなっただけ. これらの関数は getpics() から呼び出され,
抽出できなかった場合に return 0 するが, getpics() 側で特にエラー処理
してないので, エラーにならず get [0] ... とかなって走りつづけてる
(本当は 0 のとこに scrapeimgname() の戻り値であるファイル名が入る).
モジュールに依存しないように html の parse を自前でやってるが,
俺は面倒なので, HTML::TreeBuilder::XPath 使って書き直した.
あと
HTTP::Response- >status_line がメソッド呼び出しなのに
double quote で文字列展開しようとしてるので, status_line が
正しく表示できてないのもバグっぽい.
"@{[ $res->status_line ]}" とかしといた方がいい.
bandwidthがperlだとブラウザより高いのけ? QoSでperlへの帯域絞るしか無い?
283 :
名無しさん@お腹いっぱい。 :2010/02/19(金) 22:35:10
img id.*でマッチングするようにscrapeimgnameとscrapeimgurlを書き換えたら動いたよ。
オリジナルは画像鯖のドメインでマッチングしてたんだけど、ドメインが変わったからマッチしなくなったんだね。
>>282 オリジナルだと4秒ぐらいで取りに行っちゃうから、間隔を10秒以上とるようにsleepを書き換えるとけっこう快適になるよ。
$t=(rnd($base1000))+10 とか?
>>284 そうそう。waitpとかいう名前だったはず。
私も、img idでマッチする様に書換えて、動きました。 書出すファイル名は、altタグから引っぱればいいかな。
$t=(rnd($base1000))+10 とか?
うあ base/1000の間違い すまぬ
perlの記述がよく分からないんだけども 正規表現とかimgタグとかは他の言語とかと一緒なのかな
292 :
157 :2010/02/20(土) 01:54:50
157さんサンクス! ちゃんと動いてます。
use LWP ;
my $ua = LWP::UserAgent->new;
$ua->agent("User-Agent: Mozilla/5.0 (Windows; U; Windows NT 6.0;rv:1.9.2)
");
$ua->timeout(180);
$ua->proxy('http', '
http://127.0.0.1:80/ ');
295 :
157 :2010/02/20(土) 21:05:59
上のバージョンで
>>281 氏のstatus_lineのデバッグ入れるの忘れてました
すいません
今スクリプトのデバッグ中にふと思いついたしょーもない むしろ '常識知らねーな' と言われそうな変更を試してる。 これで4ページ/分のペースで14冊330ページ99MBまで落としたが 一向に帯域制限がやって来ない。昨夜は引っ掛かりまくりだったし 今まで3日の間を空けたってこんなこと無かったんだがな。 サーバのプログラムが変わったばかりらしいがバグを突けたのか? それとも今日は感謝デーなのか?
>>296 変更前と後のスクリプトで試してみて
両方とも帯域制限が来ないなら
今日は感謝デー
後の変更済みスクリプトだけに帯域制限がこないなら
その変更は大当たり
>>297 おぉ、そりゃそうだ。舞い上がって変化点検証の基本を忘れてた。やってみる。
すまん。サービス期間中だったようだ。 変更前のコードでも222ページ75MBまでスルスル落とせた後に 509 がやってきた。 その直後に変更後のコードを掛けてみたがやっぱり 509 だった。 多分週末メンテナンスで俺のカウンタがリセットしたとかなんだろうな。 クッキーなくなってるね。リダイレクトもなし。img id=xxx は相変わらず付いてるけど 肝心の id の値はHTML本文中に見つからない。
157さんのツールで、DLするページによってサムネイルページで400エラーを吐くのは何故でしょうか?
>>300 オレもそういうページあるけど多分複数ページじゃなくて単独ページの場所だと
動かないっぽい。
ベースページを解析するルーチンで1ページしかないページだと構文解析できずに
終わってるっぽいな。
直すのめんどいんで手作業でやってるけどね。
ついでだけど500枚くらいのやつだとエラー途中までしかDLしないのは仕様?
>>265 のスクリプト改造を試しているが上手くいかない…
各画像ページのURL取得までは行っているんだが、<a class="noul" href=~~~>のタグを取り込まない
難しいぜ
>>300 スクリプトの、サブルーチンgeturllistの以下を変更してみました。
変更前 if ( $a[$i] =~ /$url/ and $a[$i] =~ /[0-9]$/ )
変更後 if ( $a[$i] =~ /$url/ and $a[$i] =~ /¥/[0-9]+$/ )
単ページで、エラー400が出なくなりました。
ゴミを拾っていたようです。
304 :
157 :2010/02/22(月) 23:33:25
>>304 157さん、いつもありがとう。
ダウン終了時や転送制限時に、saykanaコマンドつかって、ゆっくりに喋って
お知らせしてもらう様に改造して、使ってます。
だいたい、70から160枚くらいで制限を、喰らいます。
ゆっくり待ちます制限解除をw
制限食らったらリストの途中から再開するようにするには どうしたらよいのだろうか
>>306 もう一度おなじコマンドで。
get.pl -l 513894289.list
で制限くらったら、もう一回
get.pl -l 513894289.list
とかする。
get.pl -u [URL]
でやってる人はlistができてるんで
できたlistで
get.pl -l [list file]
とやる。
>>308 .listファイルを、テキストエディタで開いて、不必要な行を削除すればいいんじゃね?
或いはスクリプトで、分割したい箇所だけのファイル作る。
こんな感じ? $ less hoge.list | perl -le '@a=<>;print splice(@a,1*16-1,4*16)' > hoge2-5.list
listファイルから続きをダウンしようとすると Invalid argument at get.pl line 454 とエラーをはくのですが、対処法はありますか?
listファイルの有るデレクトリィで $ get.pl -l hoge.list
>>312 そのように宣言しているつもりなのですがうまくいきません…
家では、ちゃんと動いているよ。 OSやperlのバージョンに因るのかな? MacOS X 10.4.11(PPC) perl, v5.8.6
315 :
308 :2010/02/26(金) 22:27:47
>>309-310 ありがとうございます
ついさっき気付いたけど、1ページのみのlistファイルを取得することも可能なんですね
数ページだけの画像をDLしたい場合には、無駄なページを取得する手間が省けますね
むう…こちらは XP HomeEdition SP2 perl v5.10.1 で動きません…
>>316 >304の最新バージョンで試してみた?
それでダメなら、エラーを起こす行の前に、print で変数の確認やってみて。
listも画像の名前も正しい物が入ってるのは確認できたのですが… やはり動きません…
ディレクトリのパーミッションかも
こちらではメインの7 64bit サブのxp pro共に快適に動いてます ところでE−HENの制限って80MBくらいなんでしょうか ルータ再起動して使う分には問題ありませんが大体そのあたりでとまります
パーミッションも問題はありませんでした これ以上はご迷惑なので失礼します…
322 :
名無しさん@お腹いっぱい。 :2010/03/02(火) 21:16:24
>>304 すげー!!!マジうpありがとうございます。
ところで、これ管理者権限で実行する必要ないですよね?
管理者権限で実行すると画像の保存先がわからない・・・
>>304 のすくりぷと昨日からこんなファイルが落ちてくるようになったんだけど
CRC A621
CRC32 62B3FF7E
MD5 5F92B5C9A6A45640ED45EF63A545BC29
SHA1 E036679C61FEE1689E75BC780FE1F4D644A127DD
同じ症状の人いないかな
昨日までは普通に落ちてきてたんだけど
うちだけ?
また変わった。 いつまでもイメージタグの "id=" に頼っていては駄目。 このサイト全般に言えることだが "[0-9a-z]{40}-" の様なハッシュ値状の モノを持つURLをターゲットにした方がよろしいかと。
またかわったのかぁ…… いろいろと対策強化されてるなぁ
imgタグ中のwidthとheightを見て一番大きいものを対象にするっていう手もあるかな。
自前で作っちまったスクリプト使ってるけど今んとこ @style != "" and @id かな
あとbandwidth limitは緩くなってる気がする
まぁ中の人も張り切ってると思うがイタチごっこだよな。 スクリプトも気を利かせてたまに広告踏んでやる位の優しさは必要だ。
中の人http response codeを画像じゃなくてヘッダで渡してくれ そしたらきちんと待つから
あいや〜、スクリプト直そうとテストしてたら、制限くらちゃったよ。 24分待てとか、表示されるし。 もう寝る。
332 :
名無しさん@お腹いっぱい。 :2010/03/03(水) 10:57:10
irvリストは作れる 画像落とす方がだめだね
>>324 なるほど!
なんとか、出来そうだ。しかし、ファイル名取得が面倒だな。
img id参照して、正規表現にぶっこんでみるか。
>>336 自分はオリジナル(?)のファイル名にこだわる必要は無いと思うのだが。
再度ZIPにしてどこかにアップし直す職人なら別だけどね。
実際1つのギャラリーに同じファイル名のものが有ったりするので
重複時の処理をするよりページ番号の連番で振りなおす方がらくだと思うよ。
>>337 それも考えたが、なんか悔しいのでimg id参照して正規表現で、取出した。
もっとも、get.plを少改造して、四桁連番+オリジナルファイル名にしている。(重複防止用に)
今のところ、正常にダウンロード出来ているみたい。
その気持ちもわかるし自分もそうしているんだけどね。 でもたまに変な空白が入っていたりするし、万一 alt="/etc/passwd" とか書かれた 場合には備えておきなよ。
>>339 >万一 alt="/etc/passwd" とか書かれた
うへぇ、いやすぐる。対策しておこう。ご忠告ありがとう。
VBやJavaをちょっぴり出来る人向けに get.pl修正のヒントを教えてくだしあ どうか
書いた者だが申し訳ない、16進表記なので"[0-9a-f]{40}-"だったね。 自分はずっとこれでしのいでいるが、その反面 "509s.gif" 等を美しく検出できずに 悩ましい日を送っているのだよ。なんか堅牢な手法ない?
サイズで検出 名前で検出 ステータスコード509そのものを検出 くらいしか思いつかない
イメージのidの値が解析できりゃ良いんだけどなと思いながら
>>343 を書いた後
ドキュメントのソースを見てて気が付いたんだが、idを持ったイメージタグを全部
抜き出したとき、他に重複しないidを持つのがターゲットだな。それ以外は
上下に表示してるので2個ずつある。
決してスマートとはいえないが画像名やホスト名決め打ちしない分変化には強いかも。
中の人、若干策に溺れた気がしてきたよ。
個別の画像ページにある画像のhttpヘッダを全部取得、 その中で一番サイズが大きいのを取ってくる…… っていうのはどうだろう。
対策されても、ブラウザーでまともに表示されるのであれば そんなに変わってないと思うんだけどなぁ・・・ 試しに、1枚目の html と 2枚目の html を保存して、WinMerge とかで比較 してみれば、どこの html を引っこ抜いてダウンロードするかわかるんでないの?
いってるはじからこれかよ。 楽しいじゃねぇか
ふぅ、しょーもない姑息な手を使いやがって...ずっこけちゃったじゃないか。
なんかシンプルなhtmlに、なってるな。 逆にありがたいが。
新しいのでも古いのでも、divセクションの最初のネストのhrefとimgがそれってことでOK?
>>351 その「、」の入れ方はゴルゴ13みたいでかっこいいな。
ダウンローダー対策なんだろうけど、今回は矢継ぎ早だな。 日替わりで変更とか来たら、ある意味面白いな。
先ほどダウンした画像(g.e-hentai.org)の中に、403.gifが一枚だけあるんだけど? これナニ? 例のloli規制の名残?
403は403だろ。404の友達みたいなものだ。
357 :
午後は@お腹いっぱい :2010/03/06(土) 08:40:28
get.plですが、get html : error. (400 URL missing)となります。 修正点を教えてください。
自分はrubyでE-Hentaiの画像自動取得のプログラムを作ってるんだけど、 なぜか最近Hpricotでページの取得をしたら文字化けしたデータしか取れなくなった 誰か原因は分かりませんかね?
俺なんか普通に閲覧しようとしても文字化けだよ
362 :
359 :2010/03/06(土) 14:19:11
>>361 それはもう試してあるんだけど何故か無理だった
一応取得データをそのままファイルとして保存して文字コードをUTF-8にしても文字化けするから
取得データ自体に何か問題があると考えてる
>>359 最近加えたプログラムや環境の変更に不具合があると思う。
なければ中の人に「すぐ元に戻せや迷惑なんじゃ何様のつもりじゃ」と訴える。
判らなければ検証用コードを見せてRubyに詳しい人に尋ねる。
文字化けじゃなくてgzipエンコードじゃね? get.plも、htmlファイルが落ちてこなくて生のgzipファイルが出来る。
でも前は今のままでもうまく行ってたんだろ?
366 :
359 :2010/03/06(土) 14:43:52
>>364 データの拡張子をgzに変更して解凍してみたらそれらしいhtmlファイルが出来たから確かにgzipファイルが原因っぽい
どうやって対策しようものか・・・
rubyでgzipって解凍できたっけ?
>>366 良かった解決、じゃなくてどこをどう弄ったらgzipエンコードされたのか原因を知っとかないと
きっとこれからも同じ失敗を何度もするよ。
gzipコマンド呼び出して対応するか、content_encoding対応したモジュール使うか? めんどいからコマンドで対応した。
369 :
359 :2010/03/06(土) 17:06:38
>>367 今回の問題は、自分がプログラムを弄った為に発生した問題じゃなかったから迷ってたんですよ
E-Hentai側の圧縮転送への仕様変更が原因で発生したからだと思います
もし、それ以前にも圧縮転送をしていたのならば見当違いですけど・・・
ともかく忠告ありがとうございます
プログラムの方はちゃんと再び動くようになりました
>>369 おぉぅ、本当だね。試しにリクエストヘッダの 「Content-Encoding: gzip」を消してみたが
サーバは勝手にgzipして送ってくる。以前はこういう場合は平文で送ってきてたのに。
ちなみに圧縮されているかどうかはレスポンスヘッダに書いてあるよ。
HTTP/1.0 200 OK
Server: Apache
Content-Encoding: gzip ←圧縮形式
Content-Type: text/html; charset=UTF-8
Content-Length: 1550 ←これは圧縮された状態のドキュメントサイズ
:
ちなみに自分はdeflateで圧縮されるとチト困るんだが。
ごめん削ったのは「Accept-Encoding」が正しい。
get.pl だけど, gethtml() の $res->content を decoded_content にすれば
gzip を decode 出来る(
HTTP::Messageを参照 ).
decode されて is_utf8 なので, そのまま出力すると warning が出るから,
ファイルハンドラの HTML を encoding つきで open するか, binmode で設定する.
具体的には gethtml() の以下の部分.
- open (HTML, "> $sfn") or die $! ;
+ open (HTML, '>:encoding(utf8)', $sfn) or die $! ;
- print HTML $res->content ;
+ print HTML $res->decoded_content ;
gzipped ファイルに必死で matching を試みた俺に乾杯.
でも折角圧縮してくれてるんだから, こっちで decode してやるのが人だと思う.
LWP::UserAgentって、gzipデコードできるんだ 知らんかったよ勉強になった
早速対応したんだけど今回509の時間ちょーなげー
今回はgzipよりamp;につかまった
文字参照の落とし穴 見事わっちも、ひっかりました。以前は、動いていた気がするけど気のせい?
1ip1日100枚前後になっちった 1日に20冊くらい良いのが上がるから串踏むようなツールに変えないと
ehgの画像URLだけど、 あの41桁のSHA-1らしき何かは逆算できるものなの? とりあえずURLに画像の大きさと幅と高さが埋め込まれていることしかわからない
379 :
名無しさん@お腹いっぱい。 :2010/03/08(月) 12:04:04
イーヘンタイ潰れてるやんw
>>378 >あの41桁のSHA-1らしき何かは逆算できるものなの?
逆算してどうするの?
正規表現で取出すだけじゃない
プロクシで、ダウンテスト中だが今のところ落とせている。
はやくツール改修してうpしてよ
棚に上げて人の志向に文句は言わないけど
あんたのHentai間口は俺よりかなりデカイ
>>377
>>381 まぁ今週金曜の様子を見てからにしなよ。
guestは総Flash化されるかもな。
静止画見る程度でflash化とか やりかねん と言う事でまかせたぞ>383
>>382 今は3次ばっかでスルー多いけど、年末年明けは見るの大変でした
駄目だ。ツールは出来たがお前らとの壮絶な公開IPの奪い合いに勝てる気がしない。
どのipもe-henご使用済みだなおい その辺の巡回取得を先に実装するのが常識?
やーっと未使用IP発見 やっぱこれも込みで自動化せんといかんな
e hentai潰れてもうた
wgetがUA変更しても動かないな aria2cだといけるんだが
未使用プロクシを発見しても速度が、遅かったりエラー頻発したりで 使えるプロクシは、意外と少ない。 おいらは、まったりプロクシ手動設定さ。みんなのおこぼれipでダウンするよ
394 :
名無しさん@お腹いっぱい。 :2010/03/09(火) 17:30:03
E-Hentai Galleries 入ろうとすると 「g_e-hentai_org」を落とそうとするんだが
395 :
名無しさん@お腹いっぱい。 :2010/03/09(火) 17:31:06
E-Hentai Galleriesに入ろうとすると 「g_e-hentai_org」ってのが落ちてくるんだが
お茶でも飲んで落ち着け
>>392 フランスとか台湾で生きのいい串があったけどああいうのに当たると気持ちいい。
基本どこも重いか既にご使用済みだよね。
おかげでタイムアウトやコネクトがらみのデバッグできちゃったよ。
ともあれ串対応したおかげで302時代より落とせてるかも。
ただ落としたjpg見ると破損してるのあるからレジューム機能も付けんといかんです。
そして、手段が目的になるとw 画像なんてオマケです
>>398 実際見る時間無いしね。
1枚目の画像見て、びびっと来たのを登録するだけの作業になっている。
1枚目の画像だけありゃいいじゃんみたいに思えてくる。
>>397 俺は実際受信した画像データとContent-Length比較して違えばリトライしてるが
401 :
157 :2010/03/09(火) 21:47:14
>>401 otukare
早速質問
getpicsサブルーチンの
if ( -e $img ) は、フォルダー指定抜けてない?
403 :
名無しさん@お腹いっぱい。 :2010/03/09(火) 23:29:44
あげてしもた…すまんこ
>>401 自作ツールから無事コール出来てます
ありがとー
1枚1枚の保存が面倒臭い…と思って、何か良い手はないかと思ってたらこのスレを見つけた。
早速
>>401 のをDLしてみたんだけど、自分には何がなんだかサッパリだったぜ…。
ツールを使用してとかじゃないのかぁ。
ツールじゃん。
まあ、気持ちも分かる アイコンをダブルクリックして、ボタンを幾つかクリックしたら ダウンロード開始みたいな「ツール」を、期待していたのだろう。 でもね、スクリプトも面白いよ。 言い機会だからちょっといじってみなよ
やられる度に改造を加えて送り出す。 ちょっとした死神博士気分だ。 アジトは古アパートだが。 おっと、ゾル大佐に呼ばれた。イーッ!
411 :
157 :2010/03/11(木) 00:19:47
>>402 確かに抜けてますね
これじゃ何やってるか分からないですね
今までエラーが出なかったのでセーフだと思ってました
エラーがでないのも当たり前です
機を見て直しておきます
509に引っかかった 長いな
大体150枚ほど落とすと帯域制限になって、その後1~2時間待つと 50枚くらい落とせるのが、最近のパータンじゃない? たまに、サービスデーで300枚くらいまで制限が来ない日も有るけどね。 ルーターをリセットするなり、プロクシかますとかでなんとかなる。
>>407 e-hentaiは複雑だから、そこらのフリーソフトみたいにURL入れてフォルダ選んで保存押すだけって訳にはいかないんじゃない
スクリプトで出来ることはEXEでもできるだろう。GUIかぶせれば需要あるのかも。 変化に追従できるようHTML解析部をDLL化したりしてね。 自分は人の褌で取る相撲にそこまでの製作意欲も沸かないが。
よし、人柱してみる。 安全の為に仮想環境のxpで。 うん、普通に落とせる。 しかし、これはスクリプトをランチする為のだけに 4.6MBのファイルをインストールするのか。 つーか、アイコンをダブルクリックしたらコマンド画面で ギャラリーのURLをペーストするだけ。 正直GUIもくそもねえ。
>>419 テスト用環境だから、してない。
いざとなったらマスターからもどすだけ。
ほぼ素の状態のxpで、テストしている。
うーむ
>>401 入れてperl突っ込んでスクリプト実行して
動作してるようで一枚も落とせなくて全俺が泣いた
なんかエラー出るだろ
前回の401から24時間以上置いて再度実行したらたった2枚で終了したぜ いろいろ厳しくなってるのか、
昨夜から連続稼動させてるがウチのスクリプトは問題なく 落とし続けてるので基本は変わってないと思う。 またHTMLの記述で重箱の隅をつつかれてるんじゃないか?
いや、単に制限がきつくなってるだけかと。 これは波があるので、いつも一定と言うわけじゃないし。 get.plに、今のところなにか問題が有るわけでも無い。
>>425 同条件で試したいから、どのページ落としたか教えてくれまいか
なんかもう p2p 的に繋げてみんなで少しずつ落とすとか
リスト取る、リスト読む、一枚目開始→すぐ終わる で2枚目・・500Can't Connect to うんちゃらで停止オワタ 画像はブラウザでも見れない・・つかこんなのばっかり 環境のせいなのか、運悪く弾かれてるのか 一つも完成品拝んでないわ
>>427 そいつぁイエネェな、っていうか聞いてどうする。
ウチに来てウチのPCからウチのIPで接続するかい?
自分はプロクシなど使わずいつも素のIPで繋いでる。
最短30秒のインターバルを取ってるが帯域制限受けたら500秒待ち
から急速に時間を長くしながらリトライ。帯域制限解けたら徐々に
時間を短くしてゆく。(500秒も待てば解けてるけどね)
接続エラーの類は120秒待ちだ。
時間の調整値には特に意味はなく自分のせっかちさと我慢強さの折り合い。
今までの実績を大雑把に言えば1ページあたり87秒の
待ち時間だから素直に100秒おきに見に行へば良いっちゃ良いんだが。
上げたくなる衝動に襲われるが今のe-henの仕様じゃ上げれないな まぁ名無しのexeなんて俺だって勘弁だけど
誤解してたらすまんが、自分はget.pl使ってないよ。自作だよ。 自分はperl読めんのだがやってることに大した違いはないと思う。
>>432 347 だけど、自作ツールだと確かに問題なさそーだけどな。
509はでるけど・・・
そこは、Proxy つかってなんとかやりくりしてる。
509画像ゲットまでの時間で串評価してたから コネクトしないのは巡回リストに加えないルールにしてたけど 手動でやってみたら繋がりにくいけど繋がると速い串とかあるのな、まいった 使いたいけどconnectで落ちる串もリストに加わってしまう
む、そろそろ来るか?
素で弾かれないのかー、いいなー 以前に普通にブラウザで画像が見れないものがある時点でおかしいのか
>>434 ステータス500で、帰ってくるプロクシサーバーはリトライ3回内で
接続出来ればオけで、そうでなければ次のプロクシを試してみる
って感じでやってます。
プロクシの評価まではやってないな。
438 :
437 :2010/03/12(金) 21:49:51
今日使ってたプロクシ 193.68.154.197:8080 BG 繋がりにくいけど、おkなら結構快適。 ブルガリアかよ
>>437 んーいやconnectできるかどうかなので
send/recvとかwebサーバーステータスがどうとか以前の話なので
でもまあconnectの3回リトライは良いかもしれない
3回やって駄目なら鯖は存在しないってことでリストに加えないような仕方にしてみます
>>438 そうそことか
>>436 ブラウザで見れないって...ページ自体がロードされないの?
画像がロードされないの?変な画像が表示されるの?
ページの下の方にある "Click here if the image fails loading"
でも駄目なの?
>>440 まず画像がズラーっと並ぶリスト的なページから
高確率で1枚目は見れます(今のところ100%?
で、2枚目・・ページ読み込んで画像が表示されるであろう領域が出ます
しばらくすると駄目だったのか、その領域が消えて○○.jpgみたいな文字だけポツン
後はそのページの広告とかお約束のが周りにといった具合
って>"Click here if the image fails loading"
押したら見れたああああああああ
でもirvineは相変わらずorz
なんちゃらが見つかりました
なんちゃらにconnect失敗しました
ソケットエラー
>>441 まぁ道具ってのは得手不得手があるもんで
10徳ナイフじゃ刃が届かない所もあろう。
ここで言ってるスクリプトって言うのは
比較的手軽に専用の道具を作れる手段だよ。
学生で春休みで暇ならトライしてごらん。
この近所には初心者の質問に答えてくれる
板もあるだろうし。
最初にやることは押入れから昔使った英和辞書
を探し出すことだがな。
こんだけURLが長くなっているのに短縮URL使わないのが不思議
もともとwikiかなんかのプログラム使ってるんじゃないか?
>>444 今、ツンデレを目の当たりにしたこの感動!
>>442-443 あ・・ごめん
結局上のperlもget.plも入れたしコマンド自体の操作
設定も正しくスクリプト自体も動いてるはずなんだが
画像それ自体は落とせない状態が続いてるんだ
どろしー2入れたirvineもアレレで
>>444 頭冷やしてくる
すまん。get.plにトライしてごらんと言ったわけではないんだ。
それ以前に、会話になってなかったからな。 エラー内容を、うんちゃらとかアレレとか書かれても エスパーじゃあるまいし。
はは、ごもっとも。 まがりなりにもUNIX版だがカーネルのリビルドが趣味の人ばかりではなさそうだ。
それより聞いてくれよ 今日は300枚連続で落ちてきてる サービスディかな?
ファイルサイズ小さかったんでね?
先月に自分もサービスディに与った。 週末メンテの恩恵だと思うがいっしょに改変もやってくるから気をつけとくよ。 つかそれを期待しての週末ロングラン耐久テストしてるんだが。
455 :
452 :2010/03/13(土) 22:27:59
結局370枚で制限来ちゃった。 平均500kbくらいの画像だったんですけどね。
まさか接続している総時間、とかじゃないよな? 俺フレッツ・ISDNでシコシコ頑張ってるけど、 400〜500KBの画像だけど 毎回10枚強落としたところで制限に入るよ…。 転送量にしたらせいぜい5〜6MBってとこだぞ? 時間はそれなりに掛かっているが…。
H画像じゃないんですが、以下のサイトの、好みの女優の画像を一気に全部落としたいです。
ttp://www.sexydesktop.co.uk/index.htm 例えばエイミー・アダムスの場合だと、
ttp://www.sexydesktop.co.uk/amyadams.htm をトップページとして合計3ページ分あります。
いずれの画像もstandard用とwidescreen用のものが用意されていて、
例えばトップページだと15種類30枚の画像があります。2ページ目も同じ。
どの女優の画像もそうなのですが、最後のページは残りの端数分だけ掲載されていて、
余った部分には別の女優のページへのリンクが挿入されるようになっています。
で、エイミー・アダムスの場合には、3ページ目に4種類8枚の画像があります。
合計34種類68枚の画像があるわけですが、これを一気に落としたいんです。
もちろんエイミー・アダムスは例です。本命はもっと枚数の多い女優の画像。
誰か助けて。
>>456 動的IPで契約してると、複数のIPを使える反面
同じアドレスプールにe-henユーザーが居るとバッティングしちゃうんだよね
>>457 酔っぱらった頭で読み解くと『余った部分に挿入されてる別の女優のページ』は
すっ飛ばしてエイミー・アダムスの画像だけ落としたいが、今使っているツール
では旨く行かない、もしくは現在手作業なので自動化したいって言う事?
その昔スーパーモデルブームの頃abpef*に釘付けになった自分には良くわかるよ。
えっ一緒にするなって?
>>458 ピンポイントで規制してるんじゃないんだ?
アドレスの切り替え自体は切断→再接続の5秒程度で済むから
制限される度にパッパパッパと贅沢に使い捨てていってるんだけど、
とりあえず切り替えちゃえばまた10枚程度は普通に落とせるんだよね。
(最初から落とせない「ハズレ」もなければ、20枚も30枚も落とせる「アタリ」もない)
e-hentaiには、全国の悩めるツール使いのために
可及的速やかに帯域制限の発動条件をつまびらかにするよう
強く求める次第である。
461 :
452 :2010/03/14(日) 01:11:19
>>457 ざらっと見てみた。
jsつかいまくり、クッキー喰え、リファーよこせ。
めんどくせー
各ページへのリンク抽出まんどくさそう。
なによりも、俺の食指がうごかねえ。w
スクリプト使い方分らなす( ;ω;) どなたか、GetChinkoみたいなGUIツール作って下さい。 お願いします。
串対応しないバージョンなら足引っ張らないからあげてもいいかな デチューンめんどくさいけど つか1IPで高速に画像だけ落としていくと規制(509待ち時間)強烈だぞ?
使える串ってどの辺から調達してますのん?素じゃ全然ダメだから学びたいが 取っ掛かりが・・・
>>463 のどから手が出るほどの熱い気持ちがあれば使い方はきっと分かる!
>>465 proxy list で、ググればいくらでも出てくるぞ。
使えるかどうかは運次第
オラ場合はプロキシの杜から、全部落としてきて
総当たり戦
この板にいてスクリプトの使い方がわからないなんてありえない。
どれもこれもe-henが悪いんや 良い意味でも悪い意味でも
私もここに来たのはHentaiがらみですけど、足掛け6年のこのスレ 最近の勢いは皆さん使える時間が増えたからかな 前スレは5年というから立ったのはバブル崩壊の頃か 本スレがあと5年続きますように
今日のログを見て気が付いたが自分も久しぶりにサービスタイムに突入してた。
が従量というより時間で終了した感じ。今
>>458 に納得した。
次のチャンスを逃さぬようサービスタイムを検知してブースト掛けるモードを検討するよ。
でもまぁ光にしても8スレッドくらいで同時にDLしようとすると全体が重くなって 細い串が逝っちゃうから微妙なんだよね(複数PCで分けても回線が1本ならいっしょ)。 大学みたいに大量にIP持ってればええんだけど。 一番良いのはe-henの有料ユーザー?になることだけど。串とかいらなそうだし。それ以前にzipで落とせるんだっけ?
>461
最初のページだけ & std だけじゃが、こんなんでどうぜよ
grep /img.php jodie.htm|egrep -o '[0-9]+@[^"]+'|sed 's/@id/_jodie/;s/$/lo.jpg/;s/@iv/.imagevenue.com/'|awk '{print "
http://img "$0}'
おらの趣味で jodie を例にしちょるけんど
(最後の awk は sed の範囲でどうにかなるんだよねきっと…)
awk やっぱりいらんかったぜよ
grep /img.php jodie-4.htm|egrep -o '[0-9]+@[^"]+'|sed 's/@id/_jodie/;s/$/lo.jpg/;s/@iv/.imagevenue.com/;s_^_
http://img_ '
sed の @id 置換部分だけ女優名にすればええがじゃ
あとは script 化すればできるろう
475 :
名無しさん@お腹いっぱい。 :2010/03/14(日) 23:33:42
>>473 お、ども。なんか良さげなんですが、
いきなり grep から始まってて、
それをどう使えばいいか解らんです。
もうちょっと解説お願いします。
477 :
名無しさん@お腹いっぱい。 :2010/03/15(月) 00:11:09
>>475 は検索して直接飛んできたからここがUNIX版だって気付いてないと思うが。
ユニックスとかリナックスって聞いたことはあるでしょう。
ここはそういった種類のOSを使ってる人が多いんですよ。
マイクロソフトのウィンドウズを使ってるなら次は"Cygwin"で検索してみると良いよ。
479 :
名無しさん@お腹いっぱい。 :2010/03/15(月) 00:55:04
grep知ってるみたいだし、
その辺の事情が分かってないわけではないんじゃない?
>>462 のどこを
>>473-474 にするのかが分かんねーよってことだろ
とエスパーしてみる
>>157 さんの許可が有れば、俺様適当パッチ get.pl プロクシ対応版を
あpする用意が、ありますがどうでしょう?
需要有りますか?
許可と需要が有れば、あpする予定です。
481 :
名無しさん@お腹いっぱい。 :2010/03/15(月) 02:54:02
ついにhentai潰れたのか
と思ったけどキャッシュ見たら今日の昼間で更新されてるな 弾かれたの?
>462 なんか見てみたら結構参考になるじゃん thx
485 :
157 :2010/03/15(月) 14:13:35
>>480 get.pl プロクシ対応版、是非ともUPお願いします。
486 :
480 :2010/03/15(月) 14:30:17
そして限られた公開プロキシの壮絶な奪い合いが始まるのであった...
>>487 ソースちゃんと見てないけど、森しかアクセスしてないかも
e-hentaiがPSPのブラウザじゃ見れないけどなんで?
491 :
名無しさん@お腹いっぱい。 :2010/03/16(火) 06:52:47
PS3でも見れない・・パソコンでは問題ないんだが・・
proxy.txtは作れたが、どうにも-pからの、txtパスが上手く通せねぇ って、通せたかもしれないけど落とせないなぁ できたtxtがすっからかんになったから読み込み専用にしたが無意味か
493 :
480 :2010/03/16(火) 12:59:54
>>492 proxy.txtを読込み専用しちゃだめ。
接続出来たプロクシは、残すようにしてあるからね。
接続出来なかったプロクシは削除されるので
今後使えるかもしれないプロクシが残って行く。
proxy.txtの一行目を、1に戻すとそのプロクシを使えるよ。
サンプルスクリプトでは、プロキシの杜だけからダウンするけど
他の公開リストのサーバーからも、ダウン出来る様に拡張してみて
そかそか、サンクス 拡張は知識的に無理でお察しな上に 読み込み専用がどうの以前に何がしらのエラーで画像落とせてないから もちっとググったりして煮詰めてみるよ
エラー? パス指定できてないだけでは?
-lで続行しようとしても、いつまでたってもget[0]から先 400が返ってくる。
>>471 だがこれで3日連続でサービスタイムがやってきたよ。
今日のは150MB,360枚だった。向こうで何が起ってるんだ?
チラシの裏にでも書いとけ
サービスタイムてww
500 :
480 :2010/03/17(水) 00:35:48
501 :
480 :2010/03/17(水) 12:37:58
readme2.txtに書き忘れていた事。 オリジナルget.plと .litsファイルの互換性はありません。 hentaiget の方は、ナンバリング情報が入っていますので .listの相互活用が出来なくなっています。 書き忘れていてごめんなさい。
サービスタイム情報は明日の朝刊のチラ紙をご覧ください!
503 :
480 :2010/03/18(木) 00:02:43
乙ですよ
なんだ 他にもpspで見れなくなった人がいたんだ・・・
今日は、プロクシハズレばっかり引いていた *nix系列のOSで動くプロクシコレクターないかしら 探し方が悪いのか、見付けられない やはりみんなお手製で、やってるの? >*nixのひと
戦いはもう始まっているからな。 しかしまぁ、みんな技術はあるけど、 ここまで卑屈にダウンロード特化のツールにしないとならんのが悲しいというか紳士だなw この件でアップロードしたりサーバーソケットで共有ツールにしたらお縄だからな IP消耗戦の問題は解決するけど
ipV6とか使えヘンの?
IPV6とかそういうめどいことはwgetやperlのライブラリに丸投げ 暇ならソケット云々からやり直しだ
君が対応すれば万事解決!
>>503 斧がどの板もInternal Server Errorなんだけど、他の人は大丈夫なの?
斧確認してみた 500が出る 終了か・メンテか
nihongoでおk
アドレスを配列で分割してもって、スクリプトで構築してんのか e-henがこの仕様になったら即日対応するが、パツ金のお姉さんじゃ萎えるわぁ
>>516 すいません。既出でしたね・・・
やっぱここでも無理か。ちょっとスクリプト書いてみます。どっから手をつけようか
断念したんだけど・・・・。今時ならcurlかなぁ。
スレ違いかもしれませんがe-hentaiのcreditsって何をしたら貯まるものなのでしょうか? 観覧してしていないのにいつのまにか貯まっていてなんでだろうと疑問に思ったのですが・・・
観覧だけでも貯まるらしい あとたまに上にモンスターが出現して倒すと貯まる?のかも 倒したことないし英語苦手だからよくわからんけど
e-hentaiって見てるとすぐ509になるんだけど これ回避する方法ってない?初心者な質問で申し訳ないけど
ない ないから串がどうのこうの上で言ってるわけ
>>521 だけど自己解決した
登録してログインできるようになると
規制回避できるんだな
完全回避ではないぞ
傾向としてimage.phpではなくUnix秒と短いハッシュを指定する サーバが多い場合は帯域制限に引っかかりにくいな。 そればっか続くと何処までも行ける気がする。 プロクシの良し悪し言ってる中には実はこれだったってのもあるんじゃね?
>>525 すんません
それ以前に、画像も串使わないと落とせないと勘違いしてました
ソースページだけ串で落として画像の直リン貰えば終了なのね
へこい串でもソースくらいなら落とせるから、画像は光でガンガン落とせてます
外人ポルノも落とせそうなくらい俺のクローラーが暇してます
1ipで制限にかかりにくくなったから少ない串で大量に落とせるとはいえ
依然として串の奪い合いなのは変わらんからツールは上げれないけど
と、言う事はe-hentaiは、リンクの有るページだけが 帯域制限の対象になっていて、画像自体は制限の対象 に、なってないって事?
E-Hentai Galleries は一気に落とすの無理なのか
>>527 画像鯖自体も時々509.gifよこすけど、ほんと時々。ウェイトで回避できる。
基本規制はソース鯖だけ。
URLリストとかを共有できたら串問題も突破できるんだけど。
アップロードや鯖ソケットはやばいからなぁ。
そもそも時限式のアドレスっぽいからリストの鮮度維持せにゃならんし。
>>527 どちらにせよ置かれてる状況に変わりはないんだがな。
>>529 ちなみにimage.phpに渡るのはUnix秒を3600で割った値な。
有効期限は1時間内
>>531 こんなことしょっちゅうやっているお方なのか、すさまじい直感っすね
あのハッシュについて特に気にもとめてなかったです
なるほどソース取り直せばウェイト要らなかったんですね
ありがとうございます
>>532 おれはそんなこと言ってない。勝手に解釈するな。
それにしてもあんた数字に対する直観力ないな。
>>529 ,530
う〜ん、やっぱり509も返す事あるのか。
画像のアドレスだけ集めて、後でまとめてダウンと考えていたけど
時間制限もあるから無理そうだし。
できるだけ、生ipは温存したいしなあ。
めんどからやっぱプロクシ両方とも通すかな。
>>520 ありがとうございます、モンスター出てるのに全然気が付かなかった・・・
マジックあるだけ使って、後はアタックしたら勝てました
レジェンド?とかいうのは効果は何なんだろ
一度だけ次に引くカードを交換することができる
倒したけど2creditsだけだった。先は長いな。
こんなに奥が深いサイトだったとは E-Hentai攻略スレッドやまとめWikiが必要なようだな
> 画像のアドレスだけ集めて、後でまとめてダウンと考えていたけど 俺まさにそれでやってるんだけど、 経験的に言って画像URLは24時間程度は有効っぽいけど?
言いだしっぺの法則
541 :
539 :2010/03/21(日) 23:07:01
> 経験的に言って画像URLは24時間程度は有効っぽいけど? 鯖の生成する画像URLは確かに結構な頻度(1時間毎?)で変わるんだけど、 変わってもすぐさま前のURLが無効とはならない、という意味。
>>541 串通してる?画像のURLはクライアントのIPには左右されないの?
543 :
539 :2010/03/21(日) 23:20:41
>>542 画像URLをゲットする時はIPアドレス切り替えていくけど、
画像本体取得時は生IP1本です。
> 画像のURLはクライアントのIPには左右されないの?
その後IP切り替えても問題なく取得出来るので、アドレスには依存しないか、
仮にするにしてもある程度の範囲は受け入れているんだと思う。
autopagerizeで全部表示したあとdownthemallで結構早くダウンロードできるな
数字の方の画像鯖時々逝ってるのあるよね あの手のアドレスの再処理どうしてます?
?nl=1
509になってからの待ち時間が長い… 大体何分で再び見られるようになるんだ?
きもちよーくe-hen回収してたんだけど いきなり画像が矢印ばかりに
数字鯖 or hentaiverseで検索してたんだな、ボディからの行数で特定汁
551 :
480 :2010/03/22(月) 01:03:17
どうやら、また構成が変わったかな? get.plのうpをお待ちになっている方は、近日中にアップデートします。 今日中には、アップデートは無理かも知れません。用事が入っているので。
>>545 autopagerizeを導入した時点で弾かれるんだが…
確かに丁度0時から矢印ばかりだぁな 数枚だけキチンと取れてるのもあるが
あー、なるほどね。
get.plではないが
>>352 の後divの階層を見るようにしている自分に影響は出ないよ。
緊急の対処療法としては b.tlcとかw.ffsとかの単語を含むURLを排除することかな。
あるいはUnix時刻の話がタイムリーだが、サーバレスポンスの Date から時間値を逆算して
それの値が含まれる画像URLを見るとかね。(これ以外と堅いな)
</div><a href=" で探せばいいと思う。直前が閉じDIVになっているやつが本命。 オレ製ツールはこれでずっと問題なく動いてる。
557 :
480 :2010/03/22(月) 08:04:21
もしかしてツールの類を見つけて連絡するとクレジットもらえる...なんてシステムは無いだろな。
そんなの、いやいやいや〜〜〜。 誰もツールアップしなくなるだけだろ。
e-hentaiはどうやって作品検索すればよいのか教えて下さい Searchに打ち込んでも反映されないよ
Search?
サーチキーワード(タグ)は、基本的に英語です タイトルに日本語が含まれている場合のみ、検索対象に日本語が 使えます そして、スレ違い
scriptだけからサーバの話に飛んでいる…… これがエロの力か……
知識がない俺にはわけわかめだぜ…… それだけにget.plとそのプロキシ版の方には感謝
アップしたり報告したりしてる人はいいのだが 俺はツール自作してて弾かれなんて無縁だ、でもうpはしないぜヒャッハーが常駐してる意味がわからない
彼がワカメのまま非実在青少年単純所持者分別君に迷い込みませんように
get.plなんてプログラマーどもにしか使えない オナニーじゃなくて誰にでも簡単に扱えるツールを作れよカスオナニー猿ども
get.plを使っているわけではないけどなんとなく
# afk|tlc|lol|qqm を無視
sub scrapeimgurl(@) {
# make each image's url from a thumbnail page.
my ($ofn, $url) = @_ ;
print "url : $url\n";
use HTML::TreeBuilder;
my $tree = HTML::TreeBuilder->new_from_file($ofn);
$tree->eof();
foreach my $img ($tree->find("img")) {
next if($img->attr('src') =~ /(afk|tlc|lol|qqm)$/);
(my $returlimg = $img_tag->attr('src')) =~ s/&/&/g;
$tree->delete;
return $returlimg;
}
$tree->delete;
return "";
}
>>567 get.pl程度も使えない猿が何しにココ来てるの?
# divの階層 sub scrapeimgurl(@) { # make each image's url from a thumbnail page. my ($ofn, , $url) = @_ ; print "url : $url\n"; use HTML::TreeBuilder; my $tree = HTML::TreeBuilder->new_from_file($ofn); $tree->eof(); foreach $img_tag ($tree->find("img")) { my @div_tag = $img_tag->look_up('_tag' => 'div'); if(scalar(@div_tag) == 1){ (my $returlimg = $img_tag->attr('src')) =~ s/&/&/g; $tree->delete; return $returlimg; } } $tree->delete; return ""; }
>>557 image落とせなくね?
矢印以前に一枚も
あ、コピペしたら/&/&/が/&/&/に…
俺はFirefoxの拡張でやってるけど img要素のaltとsrcを調べて拡張子が一致する場合に画像を保存するようにしてる var alt = img.getAttribute('alt'), src = img.getAttribute('src'); if (alt.substr(-4) == src.substr(-4)) { // ここで保存 } みたいな感じで
>>574 おぉっ、それなら明日のビルゲイツ君も喜ぶんじゃないかい。
>>575 つか拡張子に4文字決め打ちってのはどうなんだろうか。
それに alt は別に必須オプションじゃなかろうし必ずファイル名を書くもんでもない。
実際には "xxx.j pg" のように空白が入っていた時期もある。(最近見んけど)
いずれにせよ将来の改変には要注意だね。
でもアドオンは凄く素敵だよ。
ツール開発しないならE-hentaiとかいうサイトぶっ潰す
ヘ(^o^)ヘ いいぜ |∧ / / (^o^)/ てめえらがどうしても /( ) ツール開発しないなら (^o^) 三 / / > \ (\\ 三 (/o^) < \ 三 ( / / く まずはそのふざけた E-hentaiとかいうサイトぶっ潰す
わざわざsageて書くことか。まず親に頼め。
agesageの時空が乱れる
このスレで共有アカウント作って協力してcredits貯めるようにすればいいんじゃないの 一度zipで落としたのは何度も落とせるんだし
フクナガちょー嬉しーんですけどぉお〜 アハハハハハ!アハハハハハハ!
584 :
480 :2010/03/22(月) 21:57:07
やっと帰っこれた。
>>572 えっ、なんか間違ったか?と思って確認してみたが、うちでは
落とせてる。
サーバー障害か経路障害でもあったかなあ?
他に落とせない人いますか?
>>570 ヒントありがとう。
でも、HTML::TreeBuilder は、標準モジュールじゃないんだ。
それ言ったら、LWP はどうなんだって話ですが、perl配布パッケージ
に付いてくる場合が多いからなんだけど。
>>584 標準モジュールじゃないのは知ってるけど、
自分の入れた ActivePerl 5.10.1 Build 1007 (win)には最初からあったのでつかってみた。
入ってなかったら使ってない。
div と img に絞るなら自分でパースしてもそんなもんだと思うけど。
586 :
480 :2010/03/22(月) 22:36:33
>>585 なるほど、winには入っているのか。
って言うか、うちのが perl5.8.6 使ってるからかも。
ついでに言うと 450行: my ($p, $d, $i) = ($_[0], "dummy.html", 1) ; は衝突回避を考えて 450行: my ($p, $d, $i) = ($_[0], "$p/dummy.html", 1) ; の方がいいと思う。 というか、そもそもファイル出力しなくても…
588 :
480 :2010/03/22(月) 22:56:59
>>587 衝突回避は、考えていなかったです。
元のget.plに手を加えるのが、やっとの俺です。
ファイル出力はデバッグやりやすいって事で、これも元のままです。
次の修正案に生かしたいです。ありがとうです
あれ、十二時になったらget.plでおとせなくなった。 また仕様変わったのかな
いあ、普通に落ちてくるな
get.plの使い方教えろ プログラマーの知識ないから使えん 俺もファイル落としたい
付属のreadmi.txt嫁
一回だけ教えてやる
ブラウザでまず個別ギャラリーのページに移動
ブラウザのアドレス欄をコピー
コマンドプロンプトかターミナルで
perl -u "hentaiget "
http://g.e-hentai.org/g/420624/2c12345d24dc/ " -s
を実行したら、hoge234.list なんてファイルが出来る。
もう一度コマンドプロンプトから、
perl -l "hoge234.list " を実行。
それなりに時間掛かるので覚悟してくれ。
ActivePerl 5.10.1はインストールしてるんだよな。それともLinuxか?
じゃなかったらそれを先にやっておくべし。
この説明で分からないなら、素養が無いのでおきらめてくれ。
誤 perl -l "hoge234.list " を実行。 正 perl hentaiget -l "hoge234.list " を実行。 うっかりミスだゆるされよ
俺いつも -s つけないで落として、弾かれたら次からは 先ほど作成したリストを元に、 -u を -s に変えてやってるけど 最初に -u -s にしておくと結果って違うのかい?
hentaiget -u "hogehogehoe" -s は、リストファイルを作成したらストップする。 hentaiget -l "hogehogehoe" で、画像の取り出し option -s をこれにつけても意味がない。
わざわざ処理を訳でルのは、,list に適当な分かりやすい名前を付ける為。
じゃやっぱ最初に-sつける意味なくね?
それ言っちゃうと、人それぞれの好みとしか言い様がない。 最初からつかるか、すべての処理が終わってからフォルダー名を リネームするかの違いだから。好きにして
なんか誤字脱字だらけだ。疲れてんのカナ
おい
>>596 コピペしてコマンドプロントに貼り付けてエンター押しても
ダウンロードはじまらねーぞ
嘘つくんじゃねーよ
内部コマンドまたは外部コマンド、操作可能なプログラム
またはバッチ ファイルとして認識されていませんって
拒否されんじゃねーか
マジわけわかんねーからツールで出してくれ
>>603 さっさとperlインストールしやがれこの野郎
話はそれからだ
少なくとも unix の知識自体がないっぽいから 板違いってことでいいんじゃなかろうか…
全く知識が無い俺ですら、perlインスコして適当コマンド入力でファイルにありつけてるというのに
>>603 の無能っぷりと釣りっぷりと来たら(ry
コマンドプロンプトだのバッチファイルだの 一瞬ここが何板だか確認してしまったよ
エロに国境(板違い)なしと言う事か 検索で飛んでくる奴が多いのかな?
普通の画像だとDLできるが横長の画像がくると Not found image address. Check dummy.html file. と出て止まっちまう・・・・
>>612 情報は、具体的に出した方がいいよ
どのページの何番目の画像とか
検証出来ないからね
get.plってどこにlistができるのかな? カレント? なんか説明みたいなのが表示されてlistが見あたらないんだけど
カレントって何?perlってどこでDLできるの?
618 :
480 :2010/03/23(火) 17:05:02
>>615 ありがとうございます確認しました。
出来るだけ早く直します。
619 :
480 :2010/03/23(火) 17:47:16
620 :
480 :2010/03/23(火) 17:48:14
ダウンロードキーワードは、例のですのでよしなに
621 :
名無しさん@お腹いっぱい。 :2010/03/23(火) 18:10:50
意味わかんねー スクリプトじゃなくてツールで出せよツールで
623 :
480 :2010/03/23(火) 18:45:04
タイポ発見w 動くから、まあいいか get.pl(hentaiget)のメッセージで Not found image address. Check dummy.html file. 場合は、もう一つ原因があります。 プロキシサーバーが、接続先サイトを何らかの理由でブロックしている場合です。 この場合は、リストファイルを指定してプログラムを再スタートすれば、次の プロキシが使われます。 それでもダウンしない場合は、プログラムミスかe-hentaiの仕様が変ったのどちらかです。
>>615 [居酒屋よっちゃん] 二次の園オールスター DX1 (同人CG集)をげっt
thx
なんかワロタ
なんか香ばしいやつがいるな
何なのこの流れ
スルースルー
落としました宣言パネェwww さすがお客さんは違うな
つぅかスレ勿体無えからやめろ。俺も今から30日間romるからさ。
さっさとツール開発しろ 開発者どものオナニーで盛り上がってんじゃなくて 一般にも普及させろ じゃないと放流も増えない
なんかよくわからんけど「ツール」はNGワード指定か?
俺がその気になって2ちゃんで呼びかければ E-hentaiというサイトなんて簡単に潰せるということを 知っておいてほしい
はいスルースルー
馬鹿の相手するのも難だし、これからはラテン語で話そう。 そうすりゃ馬鹿は会話に参加することすらできなくなる。 ↓じゃまず一人目
パン
シナチク
俺がその気になってネットで呼びかければ 2-chというサイトなんて簡単に潰せるということを 知っておいてほしい
>>462 のsh scriptを参考にperlで書いて見た。
取りあえず、アンジェリーナ・ジョリーを連続ダウンロード
1122ダウンロードできた。
あれ、インデックスに書いて有る1139より少ない。
エラー処理さぼってるので、サーバーにうまく繋がらなかった場合は
スキップさせてるからだろう。
でも、ダウン出来た者に破損は見当たらない。まずまずである。
imgタグのalt属性をファイル名にしてたら 同名のファイルを上書きしていて泣いたことならちらほら
連続ダウンはファイル頭に連番追加はデフォですね
642 :
639 :2010/03/24(水) 13:31:49
>>642 すごいすごい。
完全他力本願な100%サルのオイラでも
ナタリーポートマンの画像386枚一気に落とせた。
ファイル名の桁数も自動で揃えてくれると完璧だけど、
これ以上の贅沢は言いません。感謝感激雨霰。
プロンプトじゃなくてGUIでお願いします; GUIが無理なら、ド級初心者でもできるような解説ページでもorz
Linuxの入門書でも買ってこい
厨房相手にしてるやつは氏ねばいいのに
あのバッテンは何です?
648 :
名無しさん@お腹いっぱい。 :2010/03/24(水) 23:00:35
pspでe-hentaiが見れん・・・ 何が問題なんだ?
>>643 sub saveimageサブルーチンの以下に変更すれば名前の桁は揃う。
if ( $add =~ m|/¥d+_([a-zA-Z]+?)¥d+_.*(¥.[a-zA-Z]{3,})$| ) {
$name = ( sprintf "%04d_", $number++ ) . $1 . $2;
んが、わざわざサーバーと一緒の名前にしてるって事は、ダウンミスを
発見しやすくするためじゃね?
e-hentaiを語る本スレみたいな場所ってないの?
付属のreadme.txt嫁 それとエラーメッセージくらい理解出来るようにしたら?
このスレ始めてみたけどレベル酷いねw
一部がひどいだけだよ。
こんな便利なことが出来たとは…… 凄いねget.pl
>655 なにその「冷やし中華 始めました」感
>>651 ダウソ板にでも立てればどうよ?ここも静かになりそうだし
perlとかコマンドプロンプトの知識なんてまったくなくて、心配だったけど なんとかreadmeを読み解いて 使えるようになったよ。・・・・・相当時間かかちゃったけど・・。
>>661 俺も検索から来てプロンプトもperlも知らなくて一時は投げてたんだけど
最近ググってやってみたら使えるようになってすごく重宝してる
チラ裏スマソ
ここはUNIX板なんだけどね…
謎解きじゃないんだから分かりやすく書いて欲しいよ 狭いコミュニティー作りが好きなのか知らんけどさ
>>664 自作のスクリプトにわざわざreadmeつけてる時点でかなりわかりやすいだろ
というかちゃんと使い方書いてあるだろ。お前がUNIXを知らないだけ
UNIX云々じゃなくてCUIだと思う
コマンドプロンプトにreadme通り入力すりゃいいだけじゃん どこで迷うんだ
世の中には日本語が不自由な方がいらっしゃるのですよ
>>664 この辺では言いだしっぺの法則ってのがあるんだよ。
get.plってgetproxylist.plでいいの? 実行されるけど何も取得できないんだけど
>>670 get.pl → winhentaiget
つかreadme2.txtに書いてあるだろ
proxyは別なソフトとか、サイトで集める ただのテキストだし、自作でおk なにが「いいの?」とかイミフだけど リドミでも読んでくれ
673 :
名無しさん@お腹いっぱい。 :2010/03/26(金) 20:02:32
>>668 そうなんだけれども、
たぶんそういう輩は、リドミなんて読むのメンドクサとか、
何も見なくても GUI でおkみたいなのがほしいだと思う。
またロリ規制されてるっぽいなぁ
欲しいんだと思う、じゃなくて自分が欲しいだけやん 今のままで十分、変なのが押し寄せて今以上に仕様変更とか頻繁に来られても困る
676 :
480 :2010/03/27(土) 02:14:06
まあ、もともとこの板はどうやって落としにくい物を落とすか と言う技術情報の交換場所みたいな所だったわけで。 俺が、安易にプロクシバージョンを出した為に、厨房を呼び寄せた のだと思う。 反省しております。>< これからは、安易にバージョンアップしない事にするよ。 修正個所の情報のみでもよさそうだし。 自分で気ままに修正すればいいしね。 それに、出来てる人には要らない物だし。
e-hentaiについて調べたくてググったらこのスレが見つかったんで質問させてください 最近、e-hentaiを見ると画像が表示されなくて509と出るんだけど どうしたらいいんでしょうか?
>>679 アク禁になる覚えないんだけどなぁ
もう二週間くらい509がでてる
対策とかないの?
>>674 lofiから入ると画像は見れないこともない。
いつもながらHentaiには詰めの甘い所がある。
682 :
480 :2010/03/27(土) 20:12:25
get.pl 1.0/95
http://www1.axfc.net/uploader/Sc/so/97171.zip タイポ修正,readme2.txtをもうちょっと親切に改定
getproxylist.plの改行コードを、winな方向けに変換した
wingetproxylist.plを同梱しました。
前回アップした物と基本的に変りは、ありませんので
すでにダウンされた方には、必要有りません。
一週間の期間限定公開バージョンです。
キーワードは、もう言わないw
不具合が有ったら改良して下さい。
それでわノシ
509 いつ解除されるのかな 何か対策とかないの? 教えてくれ
うわっ何ここ おめーらさっさとやめれや 気持ちわりー
>>684 そう言われるあなた様は何しに来たのでしょうか?
海外のサイトで管理人は外国人? 思ったんだけど、日本人の利用者多いよね 漫画など翻訳されてないし 509とかよくわからないけど、今は使いにくくなってるの? それって…このスレのせいなんじゃ… というか509の対策教えて! 見れなくて嫌!
>>686 凹みすぎて被害妄想気味だな。
日本語が多いのは漫画の類のネタが日本に圧倒的に多いものの
翻訳する人間が少ないからだと思うが。人より早く上げなきゃという
心理もあるだろうからとりあえずスキャンするだけなんだろうね。
日本人は、2chは特別だなんて思わないことだ。ニュースとフォーラムが
あるから覗いてごらん。自分で頑張った量だけ情報が得られる。
ニュースやフォーラムを探し出すとzipでゴニョゴニョ・・・
また貴重な変態が逝ってしもうた
なんだよ?貴重な変態って
食いつく意味がわからない
>>686 だけど
>>687 って外人?
登録してフォーラムで発言するとポイント…だっけ
面倒だなぁ
じゃあ、サムネイルのページは実質サンプルみたいなものじゃん
俺が推察するに、たぶん日本人 このスレに来るといる事は、エロい人 そして少々説教臭い事を言うのが、若者でない証拠 それから導かれる答は たぶん日本人で若くないエロい人
>>693 お前フォーラムのページ開いたこともないだろ。
せめてニュース位は斜めにでも読んどけな。
特に今のは読んどいて損はない。てか皆も読め。
言ってる意味がわかるから。
>>682 ありがとうございます
ありがとうございます
ニュース読んだけど何を言ってるのかわからないナリ
News読んだよ アグネスみたいな連中がE-hentaiの広告主に掛け合ったせいで ロリショタケモを規制しないといけなくなったって話だね
(1) 確かに読み直してみるとかなり説教臭いな。 ログも採らない、採っても読まない、読んでも読み取れない若い連中を 普段から相手にしてるんでこんな風になっちまったんだ。勘弁してくれ。 俺も英語は苦手だが欧州の自動車屋を相手にしてるもんで読み方位は 覚えた。 今日のニュースの要点をかいつまむと、 ・ロリショタとか獣姦のタグやギャラリーをフィルタリングしましたよ。 ・Lofiバージョンを用意しましたよ。 ・トレントって素敵,etc,... ってところだ。 このうちLofiは(今時点で)横幅が最大980ピクセルにリサイズされるそうな。 #フロントページに"Lo-fi Version"ってリンクが出てるけど君ら気が付きも #しないんだろうな。
(2)
これを見ると検索でタグのフィルタリングはされているもののメインページでは
見えないギャラリーも見える。これは
>>674 に書いたが、今になって思うに運営サイドが
忘れたわけじゃなく、スポンサーからの圧力でメインにはフィルタリングを施したが
ユーザーの反感を恐れてワザと開けたままにした穴の気がする。
それは置いといて肝心なのは画像サーバが
>>525 で書いた(君らが『数字のサーバ』と
呼んでる奴)のもので、これってメインページでも帯域制限の制御がされていないもの
ばかりなんだ。これもログを横に並べたり縦に並べて眺めるとわかるんだけどさ。
#ついでにおじさんは"?nl1"はかなり勿体無い対処だと思うんだがどうだろう。
つまりサイズによって振り分ければ、あるいはサイズを気にしなきゃ509を気にせず
lofiから画像を参照し続けられるって状態が『今』ってこと。プロクシなんざ関係ない。
実際にエロいおじさんちでは分速5.5ページで18時間落とせたよ。もう落とすネタも
無くなってやめちゃったけどさ。
そして長々書いてすまなんだ。そしてこれに気が付いて敢えて黙ってた人には申し訳ない。
もう書かないよ。
うーん規制無いのは良いけど、ホントにちっちゃいなぁ
?nl=1 は10枚程度で速攻規制かかるよね
そういえば前まで5000ページ以上あったのに、今見ると4000ページ台になってるね スポンサー、パトロン、おっかないね まぁ、ビジネスだからしょうがないか… ロリショタケモ規制の活動して飯食ってる連中いるのかな
980x選んだら本来800x600の画像もリサイズなしで見られるのかと思ったら 別にそんなこと無いのね…残念
そもそも串使えば1秒で何枚落とせるかって話だしね
タグ検が軒並みno fileだっもんで あーこいつはやられたかなと思ってたがやっぱりか… まぁそのうちサイトが潰れるか日本からのアクセスの制限がかかるだろうとは予想してたけど 圧力で特定タグだけ潰されるとは 全部見れなくなったわけじゃないけどそれが逆にスッキリしなくて歯がゆいな
そっちはそのままでlofiの大を落とすツール作れってことでしょ
lo-fiとは、なんの略?
Low-Fidelity
love fighter
基本 g. でアクセスして飛ばされるページが来たら g. を lofi. にしてアクセスを繰り返せば良いのか。 すべてのページが飛ばされるページになってるわけじゃないのね 大ページはクッキー食わせてれば大のまま?かな
クッキーじゃなく最後のディレクトリを3にするのか
lofiちっちゃいなぁ・・・熟女の嫌がらせだな
まだNot found image address. Check dummy.html file って出て止まっちまう画像があるな・・・・
管理者Lofiについてつぶやいてるな。
>>682 プロキシはどのくらいの間隔で変わるようになってるんでしょうか?
プロキシファイルは読み込めてるっぽいですが先頭のプロキシから次に行かない?です
lofiってカテゴリ検索できねえの?
>>720 帯域制限か接続エラー三回で、次のプロクシを使うよ
プロクシファイルを編集すれば、お好きなプロクシを
順番に試してくれるよ
723 :
名無しさん@お腹いっぱい。 :2010/03/31(水) 12:44:59
何か結構消されてるなlofiと見比べてみると
クソウ・・お気に入り見てみたら殆ど全滅ワロタwwww
lofiは1ページの表示数が少なすぎて面倒くさすぐる
>>722 サンクス、確かに後で変わってた
大サイズでも画質が荒いのが泣ける。 でもgの方で強制転送ページが来たら、lofiの/3/を調べて取るしかない。
lofiジャンル別に分けれるといいのにな
txtってなんぞやw
500 Status read failed: Unknow Errorしかでなくなった…アボン
15時ごろ規則変わったみたい。やっと対応した。
しかしロリショタは分かるが獣姦物はもともと奴等の専売特許じゃねぇか
なんかlofi関係なく落ちなくなったな
>>732 対応したって?
どうでもいいんだけど仕様が変わるのは落としてるのがバレてるってことなのか
>>732 の言う「対応した」とは
>>701 の言うところの「穴」を e-hentai が塞いだ、って意味だと思う。
ツールを改良して新仕様に対応させた、って意味ではないと思うよ。
737 :
736 :2010/04/01(木) 07:26:43
…と書いてみたものの、改めて読み返してみると やっぱり後者の意味に読めてきた。まぁどうでもいいや。
Lo-Fi だけど、 検索クエリに "loli" があると弾いているみたいだから "lol" や "con" だとhitするみたいね。 当然検索精度は幾分落ちる(余計なものまでhitする)けど。
"olicon" が最も精度高いな。これは Lo-Fi じゃなくてもいける。
htmlだけ読んでその後落ちてこない
lo-fiの穴はふさいでないようだが ページ規制はかかってるぽい gの画像鯖のurlが短く&http//IP:ポートになった 規制とかはシラネ
>>727 これ暗号化解けた香具師どれくらいいるの?
復号出来ずに釣られたとかいう香具師って情弱なわけ?w
そういえば昔こんな暗号化ジョークツール結構あったなw 死すプリとか懐かしいな
漫画でお姉さんとか年上物探してて、あいでがガキだとそれでもうタグにショタコン入るのがウザい エロシーンが200ページあるなかで6〜7ページあるだけじゃねーか うっあぜぇえええ
e-hentaiで落とそうとすると全部 Not found image address. Check dummy.html file ってなっちまう。 サイトの仕様変わった?
変わったお
新しいのはやく
>>698 0%から進まないな
対策済みって事かね?
E-hentaiで昔に揃ってた漫画がなくなってた ずっと残ってるわけじゃないんだな
ここで言ってもしょうがないことは直接相手に言えよ。
それは無限に容量あるわけじゃないからな
ここが何の板で何のスレかよく考えろ。
E-hentaiの本スレがないし ここが一番E-hentaiというサイトについて 2ちゃんで一番熱くレス交換されてるスレだからしゃーない
ムキになるやつはなにカリカリしてるんだろう
本スレがないなら立てればいいじゃない。
前にも書いたけど、version 1.0.914に合わせて書き直した。 sub scrapeimgurl(@) { # make each image's url from a thumbnail page. my ( $ofn ) = @_; use HTML::TreeBuilder; my $tree = HTML::TreeBuilder->new_from_file($ofn); $tree->eof(); foreach my $img_tag ($tree->find("img")) { my @div_tag = $img_tag->look_up('_tag' => 'div'); if(scalar(@div_tag) == 1){ (my $returlimg = $img_tag->attr('src')) =~ s/&/&/g; my $returlimgname = $img_tag->attr('alt'); $tree->delete; return($returlimg, $returlimgname); } } $tree->delete; return ""; } HTML::TreeBuilderがない?そんなの知らん。
↑どうやってつかうの
誰か情弱な俺に exhentai.org について優しく解説してくれ。
これはどうやらトレントのようだ
分からないやつは調べるか、一枚一枚シコシコ手動でダウンロードしろって事だな! 無論俺は後者。
E=HENTAI落とせないな
へえ。TAIHENだね。
うわ つまんね
↑E=へんたいでけんさくしてみれば
皆にオススメする位好きなら買うたれや
大阪民黒人は死ねよ
黒人で悪かったのぉ.メ〜ン.
772 :
名無しさん@お腹いっぱい。 :2010/04/07(水) 03:28:48
E-hentaiが死亡サイトになってからの スレの勢いのなさ ロリばっかだったのかこのスレ
ただ単に全板規制に巻き込まれてるだけじゃね
ロリってナンだよ
>>756 に書き換えたらうまくいってたのに
また仕様変えやがったよE変態
ちんロダよりタチ悪いわ
まぁ著作ゴロ対策にはいいかもしれんがな
ん?何も変わってないけど
使ってないんでアレなんだが毎度毎度 get.pl が弱すぎるんじゃない?
778 :
756 :2010/04/07(水) 23:16:04
>>775 試したら、普通に落とせたが?
せめて何が落とせなかったとか、エラーとかがあれば、
誰かが何かしてくれるかもしれない。
ソースしか書く気がないので、
説明とかファイル修正とかは他人に任せる。
3末の仕変直後からあったけど、時々<!-- -->これで挟んだダミー?がくるけど避けてる?
781 :
775 :2010/04/08(木) 09:19:43
すまぬ 改めて落とし直したら今度はうまくいったわ。 どうやら刺してた串が原因だったみたい。 あと上で「これつかいかたおしえろ!」と嘆いてる かわいそうな人に教えてやる get.plのsub scrapeimgurl(@) { 以降を書き換えればおk
使い方わかんない人は素直にポイント貯めてアーカイブ落とす方が楽だろうね
そもそも奴等が対策してくる事情は何よ?
二重規制やっと解けた記念 sub scrapeimgurl(@) { # make each image's url from a thumbnail page. my ( $ofn ) = @_; my $size = ( -s $ofn ); my $content = ""; open( DM, "<", $ofn ) || die $!; read( DM, $content, $size ); close ( DM ); $content =~ s/<img/¥n<img/g; my @html = split /¥n/, $content; my ( $retLink, $retName ) = ( "", "" ); my %tmp = (); for ( @html ) { $tmp{$1}++ if ( m|(<img src=".*?[a-f0-9]{40}-.*?" class=)| ); } my $url = ""; while ( my ( $key, $val ) = ( each %tmp ) ) { $url = $key, last if ( $val == 1 ); } if ( $url =~ /src="(.*?)"/ ) { ( $retLink = $1 ) =~ s/&/&/g; if ( $url =~ m{alt="(.+?)"} ) { ( $retName = $1 ) =~ tr/¥/ /_/d; } else { $retName = "unknown.jpg"; } } return ( $retLink, $retName ); }
>>783 『サーバの運用費が掛かるわりに寄付してくれる人が少ないんだよ。
だから比率的に広告主の発言力が増して今回みたいに言うこと聞かなきゃならないんだ。
自由にやるにはもっと金がいるんだ。ちゃんとユーザー登録してくれよ。メール送るからさ。
お前らタダ読みなんてモラル低いぞ』だってさ。
やっぱモラルは大切だよねぇ。
ちなみに
>>786 のって、<(空白)img(TAB)=... や <img alt=... SRC=... 位の
誰でも思いつく変化はOKなの?
うんにゃ、キメウチだよ。 そこまで正規表現にこってもしょうがない気がする。 変更が、あったらサックと直せばいいし。 <( |)img(¥t|)=....やってられん。可能性を探せば無数に有る。
790 :
名無しさん@お腹いっぱい。 :2010/04/09(金) 01:05:06
無くしたそばから、看板架け替えて予算復活する予定だろうけどな 政権交代じゃなく、利権交代なんだし
検索制限されたは
あれまたできるようになった ごめん
793 :
756 :2010/04/09(金) 04:33:19
>>786 を参考にaltがない時と、ファイル名にあると邪魔な文字を消す処理を追加
ちなみこれはhtmlの大文字小文字とかスペースとか軽微な変更なら無問題。
sub scrapeimgurl(@) {
# make each image's url from a thumbnail page.
my ( $ofn ) = @_;
use HTML::TreeBuilder;
my $tree = HTML::TreeBuilder->new_from_file($ofn);
$tree->eof();
foreach my $img_tag ($tree->find("img")) {
my @div_tag = $img_tag->look_up('_tag' => 'div');
if(scalar(@div_tag) == 1) {
(my $returlimg = $img_tag->attr('src')) =~ s/&/&/g;
my $returlimgname = 'unk' . time . '.jpg';
if(defined($img_tag->attr('alt'))) {
$returlimgname = $img_tag->attr('alt');
$returlimgname =~ s/\s/_/g;
$returlimgname =~ tr/\\\/:*?"<>|/_/;
}
$tree->delete;
return($returlimg, $returlimgname);
}
}
$tree->delete;
return "";
}
随時晒していく方向なら、pl晒すのも同じだと思うんだが
晒すのは止めておけって事ですね。了解です。
altが無かったらjpgというところに器の大きさが見えます。 頑張ってください。
get.pl使わないで 自作で作ってるんだけど、 403の画像が時々落ちてきて煩わしい。。 何か対策不足なのだろうか? 教えてエロイ人><
get.plの関数入れ替えてるけど400エラーがでるぞい。 誰かちゃんと動く最新版まとめておくれよぅ。
↑エラーでとまるとかではなくて、html取得後、画像を取得する時に 400が出るってことね。
>>797 それ多分、サーバーに存在しないファイルにアクセスしようとしてる。
文字参照あたりかも?
>>798 400エラー出てないな。少々改造したget.plだけど。改造する前も見た事ないな。
以前はちゃんと動いてたんだけど、1kbの矢印画像しか落ちてこなくなったのよ。 で、上で書かれてる関数に入れ替えたら400エラーが出るようになったんだよ。 つまり、修正された関数を使うための何かが足りてないような気がするんだ。
>>801 試しに、get.plv10.95に、
>>786 のパッチ当ててみた。
これと言ったエラーも出ずにダウン出来てます。
なるほど。じゃ誰か再うpお願いします
ツール厨と、ドチテ坊やが現れるので、スクリプト丸晒しは自粛するこになりました。 ご理解とご協力お願いを致します。 アルゴリズムの意見交換や、一部コード晒しによる意見交換は、大いにやりましょう。
ですよね。 それはそうと、最新版の再うpを誰かおながいします。 今調べたらボクのversion 1.1.1でした。テヘ。
なんていうか、最新版が生きてる状態で差分ついて語り合って わからない奴はシラネならいいけど(勉強すれば追いつける)、 最新版が既にDLできない状態でそういう置いてきぼりはないんでない?
全くだ。職人が介入できる要素がない。 壁にぶち当たったり飽きたりして開発・または意見できる奴が減ったらそれまでじゃないか。
なにもget.plに頼る事ないだろ。 以前、パイソン・ルビー・PHPで作ってる人が居たんだから。 みんな気軽にトライしろよ。スクリプトの作成くらい。 ここ何板と思ってんだ。くれくれなら帰れ。
いや、こういうエロから興味を持ってプログラミングに興味を持つ ってのもありじゃないか。ここは先導者として後に続くものの道を 作ってやるもの一つなんじゃないかな。
>>805 あなたの持っているバージョンが、オリジナルget.pl最新版だと思われます。
>>811 いやいや派生版最新をよこせってことですよー
乞食に構うなよ
>>797 正しいリンクの中に時々amp;って含まれてるから削ってアクセスしてみるといいよ
自作ツールでなく一般のブラウザでテストして自作ツールに反映してみるといい
>>804 オレ様ルールふりかざしてんじゃねーよボケクズ
史ねやゴミ
自治厨は巣窟にとっととカエレ
>>815 ただしくは'&'の記号はアンパサント(Ampersand)と読んでHMLの文法上は
意味のある特殊文字なので、だたの&は"&"と記述する。
他にも ">" とか """ とかあるからさ。
ちなみに '&' は "&" じゃなく "?" とも書けることをお忘れなく。
php なら htmlspecialchars_decode() が手っ取り早い。
なんだかわかんなくなっちゃったね。
>>815 ただしくは'&'の記号はアンパサント(Ampersand)と読んでHMLの文法上は
意味のある特殊文字なので、だたの&は"&apm;amp;"と記述する。
他にも "&apm;gt;" とか """ とかあるからさ。
ちなみに '&' は "&" じゃなく "&" とも書けることをお忘れなく。
php なら htmlspecialchars_decode() が手っ取り早い。
あーもーめんどくせー
いいたいことは分かるよ
もうスクリプトいじるのめんどいから 仮想OSでロケットマウス使って保存の自動化して アナログ的な方法でやってる俺ガイル
e-hentaiまとめ
オリジナル get.pl ver. 1.1.1
派生版 get.pl ver. 1.0.95 (プロクシ対応版)
上記のどちらでも現在の e-hentai はダウンロード出来ない。
プロクシ版へのパッチ投稿
>>756 ,786,793
オリジナルおよび派生版の投稿者による最新バージョンは、今のところ出てない。
アップすんな派とくれくれ派が対立 傍観者は呆れてる アナログ派は我関せず。
この手の趣味のプログラムは自分との戦いだが頑張った末に 作り上げて悦に入ると次は人にも見て貰いたくなる。 初めは「ウムウム,コレヲサズケテシンゼヨウ」で良いんだけれどそのうち 「ワカンネオシエロ!シヨーヘンコー!ツギハマダ?ハヤク!!」と何度も言われて面倒に なるんだよね。 バトンを受けとるルーキーがいそうなもんだけど今人材不足。 育てる気のあるヤツもいないだろうけどさ。
派生版get.plは、期間限定で公開されてたからな。 本家に遠慮したんだろうか? オリジナル版は、まだダウンロード出来るよ。
作者死ねよ
せめてオナニーくらい自分の頭と手を使えよな。気持ちいいぞおぉ。
死ねよ
ゲームのデータ消されてバシバシキーボード叩いたあげく
Escキー飛ばしちゃったのが
>>825 か。
>>824 ダウンロードできても動かない上にモジュールの
更新も適用できないんだから全く意味ないだろ
よく嫁 ダウンロード出来ると書いて有るだけだぞ 動くとかパッチ適用出来るとか、書かれてないだろ おk?
>>815 おおおほんとだ。まったく気付かなかった・・・。
同じページでも時間によって画像サーバが変わるんだな。
URLが変わってることにすら気づいてなかったよ。
>>818 C#だからHttpUtility使って対処しました。
thx!
あまり大きい声じゃ言えないがlo-fiの方がガンガン落とせるしHTMLの構造も単純で使いやすい…
>>832 lofiでもあえてgでアクセスした方がええぞ。消えてないのもあるし。
lofiの/3/でとっても画像大きいけど画質粗いから。
目次なしでfile not found来たらおしまいだけど。
未練がましいからもう巡回ポイントからはずせ
>>825 そして今人間として非常に大事なものを失ってるぞ。
自分を見つめ直せ。心の底からそう感じるから言うんだ。
↑死ね
どんどん一人前の乞食が増えていくなぁ こうやってスレは荒れるのか DIYの精神なんかはどっかに吹っ飛んだみたいだな スクリプトも書けない情弱乞食は乞食らしくすっこんでろ 一生表に出てくんな プゲラwww
すまん、作者死ねって言ってる奴以外、ほとんど俺の書き込みだ。 派生最新版をくれたら黙るから勘弁してくだしあ。
くそっ俺にファイルがあれば
>>838 を助けてやれるんだが
ここに書き込むにはファイルが足りない。
とここで絶望の淵に颯爽と現れたイケメンが
↓
いや
>>837 、俺は本気で心配してるんだよ。
以前もまともな口調で書き込んだかと思うと間髪いれずに別の人格になってるだろう。
ネットで掲示板で2chだからとはいえ理解し難いんだ。大事にならなきゃ良いが。
ちなみにプゲラとWもちょっとな...
派生最新版くれたら善処するよ。
お前はJavaとVBができるんだからHentaiくらいチャチャっとこなせるだろうに。惜しいのう。
845 :
756 :2010/04/11(日) 22:32:17
残ってないかと探したがなかった。 GPLなんだし誰か配布したらいいのに。 しかし、まあ、世の中、平和だ。
配布するなら別スレでやってくれ ここは、アホのサポートをする為のスレじゃないので
>>845 おおっぴらに配ると営業妨害かなんかで向こうから訴えられるんじゃね?
じゃぁいいよ。本家を派生最新に書き換えるパッチをくれ。 もしくは本家から変更した差分を列挙してくれるだけでもいいよぉ
横からわりいがタンカも文字にすると迫力ねえから録音してうpした方が相手ビビルぜ。
じゃもう一回期間限定でうpしてください。 体中を光の速さで駆け巡って回収する、絶対にだ
作者はごみの分際で
なんじゃ素人相手のエロサイトでも任されてるチンピラくんだりかと思ったら タンカも切れねぇ座敷犬じゃねえか。使えねぇな全く。
>>854 キミは一体誰と戦ってるの?ん?
誰か派生版最新うpしてくれよー純粋に研究がしたいんだよーオロローン
作者も精神年齢低すぎ
研究するなら本家バージョンの方がおすすめ。 見やすく丁寧書かれてる、理解もしやすい。 派生バージョンは、お世辞にも見やすいとも奇麗とも言えん。 変数の使い回しがあるし、なによりコードがぐちゃぐちゃだ。 こんな糞コード満載は、研究する価値無し。断言する、すてちゃっておk 本家バージョンで理解出来るよう勉強してくれ。 それが君の為にもスレの為にも有意義である。
わかった!独学で本家見てなんとか動くレベルになるように こぎつけるわ。んーでもヒントくれよヒント! どこをどう直したらいい? 具体的にコピペしてくれると助かるんだけど。
861 :
756 :2010/04/12(月) 09:16:07
>>858 ehg1.1.1_20100309.zipがまだ落とせたからソース見たら
確かに何であのソースがああなっちゃったのかはわからない。
とりあえず現状ではehg1.1.1_20100309.zipは落とせるし、
そのソースに
>>571 とかで対応できるしスルーで。
かまってもらえるから居座っちゃうんだよ。
派生最新版を落とし損ねた粘着君だと思われ。関係ない人にまで噛みついていたからな。 正直、「統失」の方?マジで思っちゃったよ
あれだな スレ名がまずおかしかったんだ 「コードの海でニヨニヨしよう」 これならよかった
作者は責任とって死ぬべきだな
e-hentaiまとめ2 派生版を落とし損ねたかパッチ適用が分からない素人 がスレを、自作自演で荒らす。 スレ住人ドン引き。何人かが相手するが当然のごとく 逆ギレで汚い発言をして更に住人ドン引き。 GPLだから配布してやれよと言う意見もあるが、そんな キティガイに危ないおもちゃを渡すような馬鹿は現れず。 オリジナル版および派生版投稿者の書込みは見られず。 そりゃまあそうだ。俺が投稿者なら書込みしたくない。 一つだけ有意義な意見があった。 スレ名は、「コードの海でニヨニヨしよう」にしよう と言う提案だ。すばらしい、賛成の一票を投じたい。
長文きもい
きもい
すばらしく空気読めないクズっているんだな
お前のことだよ
アレだ、もっともらしいことを叩きつけつつ良いことをしたツンデレ的な何か
ににっぽんごでおk
何となく終りが見えてくるとグダグダになるのはどこのスレでもおなじだが、 今から決めとけよ。次スレ必要なのか?
どうせUnixやCLIなんて判らん厨房が集まるんだから次スレいらね。
じゃ残り百数十レスを有意義にグダグダと速攻で埋めるってことで。
なんだこの自演レス集は
うぜえ糞馬鹿が さっさとhentaiに代わるサイト探してこいよ
なにが?どうしたんだよ
流石2ch e-hentaiでググるとトップに出るだけはある
自演バカ負け組
と馬鹿が叫ぶ
ネットの検索上手いか下手かってのはいい指標だな。 連想力っていうか柔軟性が高い。いいもの作れるよ。
つまり何年も前からあるのに見つけることもできないってことは なんていうか、失礼だが、もう昭和に帰れ。
と3回に分けて書いてみました。
自演しねしねしね
予測 初夏、ブラウザの表示上は繋がって見えるものの1ページが 複数の画像に分割されてロードされる。落とした方はlibgd なり使って結合せにゃならんはめになる。とてもウンザリ。
だから作者死ねよ
画像がアグネスの『特定しました!』と言っているjpgにすりかわるproxyが現れる。 非常にゲンナリする。せめて丘の上ヒナゲシの頃の画像にしてくれと。
夏、飛び出すエロ同人電子書籍にはまる。だが巨乳と巨根だらけで飽きる。
初秋、Hentaiのジャンルに「オライリー」が追加される。 たまに入る萌え挿絵に引かれて必死で落とすがページ数多すぎ。
e-hentaiまとめ3
スレも残すところ百あまり。
一人のクズ紙様がうpして下さるも一部の人には
効果が無かったようだ。
どうやら、梅作業に入ったらしい。
まあ、e-hentaiに張付きたい人は、PINKかダウソ
にでもスレ立てしろと言う事か?
もともとこのスレは、
>>1 さんの欲望の為に立てら
れた物ゆえ、もう寿命は尽きているのかも知れない。
それでは、またどこかでノシ
相手の出方伺うだけのスレに成り下がってしまったな 補完し合う→お零れをあわよくば貰えるかも→利用者の声もある→対応も迅速 の駄サイクルがあったが このスレ潰して別スレ立てるなり、一人でシコシコするぐらいが丁度いい結果になったな
全て作者が悪い
実は「作者」でなかったのはお前だけというハリウッド。
えっ、俺も作者だったのか
えっ!いたの!?
また作者の自演かつまんね
一声掛ければ力強い"にちゃん"の"なかま"が大勢集まる俺は 黙って誰かが次スレを立ててくれるのをじっと待つ。
スレを遡ってみたんだが、その派生版作者って人の書込みが 春のバン祭りから無いわけだ。そう丁度e-hentaiに仕様変更 があった時期とほぼ同じだ。 もう規制が解除されているか、あるいは長期の規制をくらったか? このグダグダ具合を見て呆れてるかもしれない。 だからってどうしたと言われれば別に何をどうするって分けじゃない。 ただそう思っただけなんだ。
ギャラクティカ疑心暗鬼スパイラル
キン肉マンだっけ?
アレな流れだけどこのスレのおかげでXULアプリケーションとの出会いがあったので感謝しているよ
905 :
名無しさん@お腹いっぱい。 :2010/04/15(木) 14:48:14
>>699 なるほど、そういう事だったのか
このスレ勉強になるわ
スレ違いかも知れませんが質問させて下さい。 画像ダウンロードツールを作りたい。 プログラミング経験は、C/Pascal/perl/pythonで、ハノイの塔を作った事が ある程度の技量です。 幸い、get.pl1.1.1が落とせるのでperlで勉強しようと思いますが、これGPLですよね。 このコードを使わずに、BSDライセンスなどで配布したいのですが、構いませんよね。 実は、半分ほど出来ているのですが、ライセンスどうしようって困ってます。 アルゴリズなどはget.plから拝借していますが、コードは一から書き直している最中です。 GPLには抵触しませんよね?
>>907 BSDってソース出さなくてもいいヤツじゃん
ウィルスありでwinnyとか今頃の違法DLしたエロゲみたいに
デスクトップとか個人情報とか晒されるじゃん
gzipあたりめんどくさいから本家のソースまんま組み込んじゃったよ 配布しないから気にしてないけど
↑ でオチは下に ↓
912 :
907 :2010/04/17(土) 14:29:41
>>909 ソースを非公開に出来るのですが、私が作ろうとしてるのはperlスクリプトなので
配布=ソース公開です。バイナリ配布しようとしてる分けじゃありません。
>>910 gzipデコード処理の事でしょうか?
モジュール依存の為、GPLライセンスには抵触しないと思います。
私何か勘違いしてますか。落ちは有りません。
sub uniquelist if ( ${$temparry}[$i] =~ /$url/ and ${$temparry}[$i] =~ /\/\?p=[0-9]+$/ ) {
>>909 たとえ出されても詳細設計書も無い他人のソースコードは300行以上読む気にならないんだけどね。
>>907 アルゴリズムの場合は、既知か、未知か、で判断されることが多い。
アルゴリズムがそのGPLのソースで初めて出現した(作者オリジナル)の場合は、
アルゴリズムだけ利用してもそのソースは元ソースの「翻訳」とみなされて
GPLで配布しなければならない、となることが多い。
でも、この辺は微妙なラインだと思う。
get.pl1.1.1のソースを読まなければ、
自分のソースの完成はなかったと思うなら
原作者に続くのがオープンソースっぽい考え方ではないだろうか。
自分の見た限りじゃ、get.plに未知なアルゴリズムは無かったな。
GPLに拘る必要は無いと個人的には、思うが
>>915 の考えには
賛成だ。
画像ダウンロードスクリプトは、だいたい似たり寄ったりな部分
が多いと思うし、違いはインターフェース部分が占める感じがする。
どのみちLWP使うのだろうから、似てきても仕方ないと思う。
どうしてBSDライセンスにしたいって思ったんだ?
>>915 たしかに、原本をなぞればそれは原本と同一ですね。
うっかりGPLを破るところでした。現在のコードを破棄してゼロから
作成します。
>>916 極端は例ですが、バイトコンパイルされたスクリプトを適当なGUIラッパ
で包んで、お手軽アプリ配布って事に煩わしさが供なわない。
改変したって公開する必要ないし、義務もない。配布者の自由ってのが
気に入ってます。
落とす画像もGPLだったらいいのにな。
e-henntaiのダウンロード方法をググったらココに辿りつきました こんなところに巣があったのか
いろんな手を思いつくもんだ。
922 :
907 :2010/04/18(日) 14:47:48
練習がてら家鴨窯の画像ダウンロードスクリプト作成してみた。 ここは、インデックスのリファラだけ送ればいいのか。 おねいちゃん系が、好きな人は家鴨窯はお奨めだ。 帯域制限ないし、ラクチンだな。e-hentaiどーでもよくなってきた。
3次はいいや
おねいちゃん系すすめてんのに、わざわざ「3次はいいや」なんてカキコする。 病んでるなw
俺も賛辞はいいや
>>923 精神的ブラクラ対策用に、たまにはエグイのも見とけ
ここはHentai専用じゃないんだから大いに語りあえばよろし。 後がないけど。
今日来て無事派生版とやらをげっとできた。すげーな。
>>913 しばらく見てなかったらインデックスが、ちょっと変更になってたのか。
あれ、なんか21ページ目からDLしようとするな。なんで? と思ったらあれか。最後のページの1枚目からDLしようとしてるみたいだよ。
最後のページってのは、例えば40枚の画像ファイルだたったら 1ページ20枚のサムネがあるので2ページでしょ。 そうすると、2ページ目にある先頭の21ページからDLしてる。
933 :
907 :2010/04/20(火) 02:32:53
>>933 3回くらいの失敗で、単純なローテートでいいと思う。
除外とかしてると、ネットが死んでるとプロキシ全部消えたりするし。
プロキシはエラーのステータスコード返さないのがたまにいるのが一番面倒。
935 :
907 :2010/04/21(水) 22:08:30
>>934 今は最初のアクセスで500番台のエラーが発生したらリトライして
それ以外だったら除外する様にしています。
ステータスが返ってこないと、time outの時間だけ待ってしまう為
何度も、リトライするのが無駄に思えています。
やはり三回くらいリトライが妥当かな。
ご助言ありがとうでした。
936 :
907 :2010/04/22(木) 02:34:56
おおっぴらにツール配布すると規制が厳しくなるの法則。やれやれ。
>>936 (・ω・`)乙 これは乙じゃなくてポニーテールなんだからね!
>>936 480氏のときも思ったがプロキシをICMP(ping)で調べるのはそっちのが早いから?
タイムアウト短くしてHTTP(LWP)で調べた方がいいと思うが…
2chで晒すのと個人のブログで晒すのとでは、2chの方が影響あるだろ。 質問や厨房のカキコが、はてなのブログに行くのは一向に構わん。 むしろ歓迎w 斯くしてスレに平和が訪れた。
>>939 サーバーが生きているかどうかだけ調べてるみたいだから、Net::Pingで十分じゃね?
折角プログがあんだから、そっちで聞いてやれや。
たこ焼き食うのにナイフとフォーク使うヤツはいない。 つまようじで必要かつ十分だって事じゃん。
Pingが返ってきても、プロキシとしては死んでたり 逆にプロキシとしては生きてても、ping返さないのもいるからと思っただけだが、 ま、ブログあるし他にも細かいツッコミ所あるしそっちで聞くか …となると、ココの存在意義は…何だっけ? もうすぐ終わるしいいか
めんどくせえヤツだな。
自分がそうしたきゃ、そうすればいいだけなのに。
さっさっと、その思いブログ主にぶつけてこいよ。
お気の毒様
>>936
>>937 作ってる側としては順風満帆すぎてもつまらないから
たまに一荒れ吹いて貰いたいって気持ちもあるよ。
ここひと月はただのコレクターに成り下がってるし。
E-Hentai以外のサイトから落としたいという新しいネタはないんだろうか…
そういう自分が提供するとかは無いのか ツールとかじゃなしに、このサイトが熱い・・みたいな
ピンク板があるしなあ。ここで熱く語られても逆に引くわ。 元々、ダウンロードのノウハウを語る板だし。
自分だけ変態じゃないしみたいな発言は慎みたまえ
下半身丸出しで逆に引くとか言われても逆に引くわ
なんで下半身まるだしとか分かるんだよバカバカちんこ
ちなみにE-hentaiでreportボタンから著作権を主張して削除依頼すると翌日アク禁にされる 2回もくらったので間違いない
こないだテレビつけたら、バカちんこバカちんこ言ってる芸人がいてさあ 引いたわ っていう話なんだけど
わかちこじゃないのか
SSD使ってる人で、オブリを突っ込んでる人に質問なんですけど HDDの時と比べてそんなに読み込み速度とか変わります? プラシーボ効果的な、「(SSDにしたから速くなってるはず!)あ、ちょっとは早くなったかなぁ・・・?」みたいな微妙な変化なら 導入するのをやめようと思ってます。
ごばーく!
変わらんよ
>>955 今日あんたは好きなものを好きなだけ喰ってよし。俺は許す。
この"間"が間抜けだな。
ここのロリ八分は検索隔離とページ削除の二種類あんの? Googleからサイト内検索でロリワード入れると公式検索では出ないものが引っかかるんだけど ものによってはGellery Not availableが出る
>>961 それっぽい単語が入ってるやつはとりあえず検索結果から消して、
削除が後回し(抜け?)になってるページがあるだけだと思うけど。
しかし…、そんなことに気がついたということは…
ぶっちゃけ削除とかされてないよ
全自動なシステムだとDBのデータ削除とかはまだ簡単だけど、 実ファイル削除は面倒だったりするから放置してあるんでしょ。 もしくはロリ関連はトレースしてレポートするって書いてあるから、 それ用のハニーポットかも。
やっぱ消し残しかなぁ
ロリが理由の削除措置は一応存在すると思う
小学生向けの時間帯のアニメでGoogle検索すると
Gellery Not Availableになってるページを頻繁に見かけるんだが
(ただ単に無視してるからだが
>>953 )ここは著作権侵害が問題になるケースは皆無だし、
そういうリスクが存在しない以上、アップロード者が
何らかの脅威を感じて同時多発的に自主削除するという状況も考えにくい
E-HentaiはP2Pも併用してるから実ファイルの削除なんて基本的にされてないと思うよ 今回のはlolicon/shotacon/bestialityタグが付いたギャラリーを見えにくくしてるだけ 状況が良くわからんが、pining for the fjords以外は今回のとは関係ないんじゃね
大人の事情で子供の情事が見えなくなったということか
だれうま
e-hentaiに代わる同人CGイラストが自由に見られるサイトはないものかのう EFのSGシリーズとか好きなのに
どうせe-hentaiで何枚か見た後気に入った場合はsite:hongfire.com 作品名でググってたからあんま痛くないや
そして前歴へ・・・ こんなところにいる奴らは完全匿名でP2Pとかやってそうで怖いけどなw
昭和かよ
俺は昭和ですがなにか
もし、次スレ立てるならIDの出る板でお願いします。 リモホ強制表示でもかまわん。 て言うか次スレいらねーんだけど。
>>304 のファイルで
** going to get 1 thumbnail pages **
get html : error. (400 URL missing)
って帰ってきて動かないなあ、皆さんはどうですか?
>>978 e-hentaiの仕様が変ったので、そのままじゃ動かないよ
自分で修正するか、他のダウンツール探すかしてよ
e-hantaiが、ちょっと変更になったからって簡単に「しね」なんて言うなよ GWだからか?
ネットだからって他人に気安く死ねとか言う奴は死ねばいいのに
僕も気安く言っちゃおうかなー
>>979 シネシネ
ゴールデン厨がここにもいるなw さすが神国日本www
しねしね君、ちょっと安心したよ。 親にネット解約されてぶちきれたんじゃないかと心配してたんだ。
お
みんなしねしねいってるんだな
では俺も
>>979 しねしね
980超えたら一日1レス無いとDAT落ち、20レスまでは1日1レス無いとDAT落ちってのが 4年前からのルール。
まずはそのルールをぶち殺す
俺の連続受信阻害殺しはちっとばっか響くぞ!
なげぇよw
自演乙
誰がボクシングの話をしろと
つかお前ら暇だなーGWだってのにw フツーは目的地に向かってる時間帯じゃねw
なにが始まるんです?
第三次大戦だ
1001 :
1001 :
Over 1000 Thread このスレッドは1000を超えました。 もう書けないので、新しいスレッドを立ててくださいです。。。