Proxomitron フィルター作成スレッド Part14
このスレや情報提供、各種フィルタ作者様に感謝を!
8 :
名無しさん@お腹いっぱい。:2012/01/24(火) 16:26:46.96 ID:Pl5Wo4p60
>>9 おつん
何で急に403にしたんだろうなぁpixiv
>>9 リファラkillしておけば全く関係ないというのはpixivも間抜けだな
しかし広告ブロックやWEBセキュリティーを強化したら
アフィブログも何の効果もなくなるし
WEBでのイメージ操作活動もテクノロジーを越えられないのかなあとは思う
リアル広告代表の折込チラシは新聞自体より需要が高いくらいなんだから
根本の根本からやり方が間違ってるだけなんじゃね
みなさんはどんなブラウザからオミトロンを使っていますか?
私はsleipnir166です
ニコ動やYoutubeなどはオミトロンなしのFirefoxです
firefox+オミトロン
いろいろ手を出したがやはりオミトロンが最強だわ
ニコなんかうざい広告とステマ臭いもの全部殺してメチャクチャ快適
ステマ言いたいだけちゃうかと
覚えた言葉はすぐ使いたいんだろうな
ステマ陣営がステマと言う言葉を陳腐化させる為に、わざとバカなカキコしてるという噂があるな
>>10 人のサイトを利用してアフィで稼いでるpixortを狙い撃ちで排除
別にそれ以上でもそれ以下でもないだろ
俺はアフィ付きの2chまとめと同類のpixortを擁護はできん
そんな事どうでもいいよ
pixortという便利なサイトがなくなる方が大問題だわ
リンク制限なんて卑屈なことしなくても自分ところの検索機能を強化すればいいだけの話なのにね
これだからPixiv運営はアレとか言われるんだろうな。まぁ実際アレなのが救いようのない話か
ここはpixivスレではありませんよっと
22 :
9:2012/01/29(日) 10:27:36.10 ID:PesnAjzv0
こう言っちゃなんだが広告を消しているProxomitron利用者が言うのもどうかと思うけどなw
23 :
名無しさん@お腹いっぱい。:2012/01/30(月) 18:43:30.07 ID:v/Cn9vJE0
復帰上げ
>>20 本家に人気順ソートがないってのは検索機能が弱いってより、そういう順序付けはしないって方針なだけだろ
(糞の役にも立たない) ランキングはあるんで「順序付けはしない」ってわけではないんだよな
だからもし方針だとしたらはそれは「ユーザのニーズを無視する」っていう方針だね
>新機能リリースのお知らせ - 01月31日
>pixiv事務局です。
>本日pixiv(
http://www.pixiv.net/ )にて、pixivプレミアム会員向けに人気順検索機能をリリースしました。
>この機能では、イラスト/漫画作品をブックマーク数の多い順に検索することができます。
意訳「ソートしたいなら金よこせ」
いいかげんスレチに気づけ
TINAMIとかがステマしてんじゃねえの?
pixivなんてもう要らねーじゃんwww
pixivって会員制なんでしょ?
ニコニコみたいに他所のスレでやってよ
オミトロン潰したいどこかの企業が便乗してるんだろ
広告収入はどこも重要だからな
そうかがんばれ
Proxomitronみたいなマイナーなソフトなんか相手するだけ労力のムダだろうて
釣りでももう少しひねれ、ウスラw
35 :
名無しさん@お腹いっぱい。:2012/02/07(火) 07:29:58.06 ID:ASyiq9Vb0
爆笑もんだなwww
標準のURL-Killerとかか?
URL Killfile.txtのThe WWW'sってところに
www.brothersoft.com/でおk?
この程度ことを聞くより試した方が早いと思わないのが不思議でしかたがない
2chがバイブルであり先生なんだろ
なるほど、こういうレスしかできないのか
ねとうよは嫌われるわけだ^^
どうした急に
WASAWASA
44 :
名無しさん@お腹いっぱい。:2012/02/08(水) 14:03:53.16 ID:olvPEmVs0
>>41 _|_ _|_ ___ -―フ _|_ _|_ ___ -―フ
ノ \ | \ | \ / ∠ ノ \ | \ | \ / ∠
X | | | | / ) X | | | | / )
/ \ | | \/ \ ○ノ / \ | | \/ \ ○ノ
またpixivの話で悪いんだけど、仕様変更したらしくて
作品のタイトルとpixiv : img direct access [11/09/29]の
[FULL]と[MANGA]の部分が被る様になっちゃった
検索部分の変更に対応。ランキングは変更なし
[Patterns]
Name = "pixiv : img direct access [12/02/09]"
Active = TRUE
Multi = TRUE
URL = "$TYPE(htm)(www|embed).pixiv.net/"
Limit = 4096
Match = "$NEST(<a,\s$SET(#=<a )([^>]++)\#href=$AV((
http://www.pixiv.net/|/|)(member_illust|index).php\?mode=[^&]+\&\9)"
"$SET(#=href="\1/\2_m.\3")"
"([^>]+>)\#"
"( (<div[^>]+>|<p>|) <img\s[^>]++(data-src|src)=$AV(\1/(mobile/|)([0-9]+)\2_([0-9]+ms|s|100|240mw).(jpg|jpeg|gif|png)\3(\?*|))[^>]+>)\#"
" (<br />\0|<label[^>]+>\0</label>|(</p>|) <h[1-2][^>]+>\0</h[1-2]>|([^<>]+{1,*})\0|\#) ,</a>)"
"$SET(#=</a>)"
"$SET(#=<div style="display:none;" class="full_manga"><div><a href="\1/\2.\3">[FULL]</a>"
"<a href="
http://www.pixiv.net/member_illust.php?mode=manga&\9">[MANGA]</a></div></div>)"
"((<br />|(^$TST(\0=?*)))([^<]+)\0(<br />|(^(^</li>)))"
"|<br />"
"|)"
"($TST(\0=?*)$SET(#=<div><a href="
http://www.pixiv.net/member_illust.php?mode=medium&\9">\0</a></div>)"
"|)"
"|"
"(^(^</body>))"
"$STOP()"
"(^$TST(in_script=1))"
"$SET(#=<style type="text/css">"
"*:hover > div.full_manga { display:block !important; }"
"div.full_manga {position:relative;}"
"div.full_manga > div {position:absolute; width:100%; bottom:0px;}"
"div.full_manga a {background: lightcyan;}"
"#page-ranking div.full_manga { margin-left: 125px; }"
"</style>)"
Replace = " \@"
うほほっ!動作確認出来ました
ありがとうございます
[Patterns]
Name = "Google: Delete SearchNoise [2011/01/07]"
Active = TRUE
URL = "www.google.co(.jp|m)/(hws/|)search"
Bounds = "<li(\s[^>]+|)>?++(^(^<(/|)([ou]l|li)(\s[^>]+|)>))"
Limit = 4096
Match = "*<a\s[^>]++href=("|)"
"(/url\?([^>]++\&(amp;|)|)q="
"|/aclk\?([^>]++\&(amp;|)|)adurl="
"|)"
"http(s|)://"
"$LST(SearchSpam)"
"*</cite>*"
こいつが動かなくなってしまったので更新をお願いします・・・
cleanup search results 2に乗り換え
googleってhttpsにリダイレクトされない?
古いブラウザ使ってるからなのかな
>>49 [Patterns]
Name = "Google | cleanup search results 2 20110906"
Active = TRUE
Multi = TRUE
URL = "www.google.c(o.jp|m)/search\?$TYPE(htm)"
Limit = 2048
Match = "$KEYCHK(^16)$ADDLSTBOX(SearchSpam,URL(w/o
http://))"
"$SET(0=<script>document.location="\u";</script>)"
"|"
"<li (class=$AV(g *)[^>]+> <div [^>]+> <span [^>]+> <h3 [^>]+>"
" <a href=$AV(http(s|)://("
"$LST(SearchSpam)$SET(0=<li style="opacity:0.3" )|"
"$LST(AdList)$SET(0=<li style="display:none" )"
")*))\9"
Replace = "\0\9"
こっちも動かないです
>>51 https://github.com/Sizuken/cleanup-search-results/blob/master/cleanup%20search%20results [Patterns]
Name = "Google | cleanup search results 2 20111007"
Active = TRUE
Multi = TRUE
URL = "www.google.c(o.jp|m)/search\? $TYPE(htm)"
Limit = 2048
Match = "$KEYCHK(^16)$ADDLSTBOX(SearchSpam,URL(w/o
http://))"
"$SET(0=<script>document.location="\u";</script>)"
"|"
"<li (class=$AV(g *)[^>]+> <div [^>]+> (<span [^>]+> |)<h3 [^>]+>"
" <a href=$AV(http(s|)://("
"$LST(SearchSpam)$SET(0=<li style="opacity: 0.3" )|"
"$LST(AdList)$SET(0=<li style="opacity: 0.3" )"
")*))\9"
Replace = "\0\9"
ところで SearchSpam と AdList の使い分けがいまだにわからん
俺は見る必要のないゴミは全て AdList にぶち込み、跡形もなく削除している
「SEO はうざいが中身は読みたい」なんてサイトは見たことがない
というかそもそもうざいと感じる原因は「上位に来るくせに中身がゴミだから」なわけで
>>53 検索結果に出てこないようにするか
アクセスできないようにするかの違い
てかお前らまだGoogle使ってるのかよwww
youtube動画内広告は消せませんか?
>>55 google嫌だけど代替サイトでいいのがない
使い方がわからないものを無理に使う必要はないんじゃないでしょうか
>>54 Operaだけど使えているよ、他のブラウザはしらね
60 :
名無しさん@お腹いっぱい。:2012/02/13(月) 15:41:45.29 ID:pXfEKUTm0
>>52 www.google.co(.jp|m)
かと・・・。
元々がミスを呼びやすい書き方なんやね
64 :
48:2012/02/14(火) 23:26:31.88 ID:crrhuJt10
>>61 それブラウザ側設定の「ローカルアドレスにはプロキシサーバーを使用しない」にチェックが入ってる
>>61 ブラウザの串設定するところの近くにローカルアドレス云々とかないか?
被ったw
>>62 あれーほんとですね!
いつからこんなんなってたんじゃろ。ありがとう!
coでとめてorする理由って何なんです? 違和感があるんですけど
単にwww.google.(co.jp|com)よりも短くて済むからだろう
で、違和感あるならどうするのが良いと思うんだ?
www.google.c(o.jp|m)
"("の位置がおかしい
www.google.co(.jp|m)
こうでしょ
(co.jp|com)の方がほんの少しだけマッチングが速い
って以前検証されてなかったっけ?
73 :
61:2012/02/15(水) 09:41:16.13 ID:kWKKOsEx0
>>64-65 ありがとうございます。
でも、チェックOFFにしてあります。
引き続きよろしくお願いします。
>引き続きよろしくお願いします。
他人に投げっぱなしで自分でどうにかしようと頑張る気すらない
という感じで何気にムカツクわ
>>75 バッチリです!
Fiddlerではキャプチャできていたんで
Proxomitron側の仕様だと思い込んで
Proxomitron+キーワードでずっと検索してました。
ファイアウォールソフト替えてみたり(全然意味なかった)してもダメで
もう諦めようと思った所だったんで、
本当に助かりました。
これで先に進めます。
ありがとうございました。
因みに
WinHTTPの方は「<-loopback>」は未対応でした。
Proxomitron フィルター作成スレッド Part13
ttp://anago.2ch.net/test/read.cgi/software/1287997298/812 ↑この人も読んでると良いんだけど・・・。
77 :
名無しさん@お腹いっぱい。:2012/02/16(木) 18:21:30.45 ID:cXWD7ePG0
Google cleanup search resultsの更新どなたかお願いします
[Patterns]
Name = "Google | Ajax killer test-20110528"
Active = TRUE
URL = "www.google.co(.jp|m)/(search\? $TYPE(htm)|extern_js/f/ $TYPE(js)(^$OHDR(Referer: *\&tbm=(isch|mbl)*)))"
Limit = 300
Match = "$TYPE(js)$STOP()\k|"
"(/extern_js/f/[^.]+.js)\#$SET(#=?prox-$DTM(tc))|"
"(<a [^>]++ class=$AV(gbmt|gbzt *) [^>]++)\# onclick=$AV(*)"
"|"
"(^$URL(*\&tbo=1*))$SET(#=<script>document.location="\u&tbo=1";</script>)$STOP()|"
"(^$URL(*\&prmdo=1*))$SET(#=<script>document.location="\u&prmdo=1";</script>)$STOP()|"
"$NEST(<a [^>]++ id=$AV(showmodes|tbpi),</a>)"
Replace = "\@"
こいつ入れているとgoogleの画像検索が1ページ目しか表示されないのは仕様?
じゃあ仕様だろ
仕様らしいぞこのゴミが言うんだから間違いない
このくっさい下痢頭がいうなら間違いなさそうですね
ありがとうございました
どういたしまして
下痢頭って何だw
85 :
名無しさん@お腹いっぱい。:2012/02/20(月) 17:53:05.11 ID:uwZz9RcB0
バロスwww
そうか、じゃあ例外扱いでフィルタ修正するとするよ
まぁうちでは普通に2ページ目以降も表示されてますけども
googleはちょくちょく仕様変更が入るし
変更のタイミングも鯖毎に違ってたりするから
フィルターの保守が大変だよね
質問なんですが、現在のyoutubeのランキングのページなんですが
一部のユーザがアップした動画を非表示にしたいんです。
途中までは、なんとか書けたんですが・・・
90 :
89:2012/02/23(木) 06:58:36.52 ID:bcvmZYe/0
Match = "<div(^(^\s[^>]++class=$AV(browse-item yt-tile-default )))"
Replace = "<div style="display: none""
これに、aaaさん(仮に)をヒットさせたいんです。
<a class="yt-user-name " href="/user/aaa">aaa</a>
ぜひ、教えてください。
ORを覚えて下さい。
>>89 細かい部分で色々やり方($NESTか*かとか)はあるけど
それより該当箇所がでかいから先読みの方が他のフィルタとぶつかりにくくていいと思う
[Patterns]
Name = "YouTube Ranking: toggle NG user"
Active = TRUE
URL = "www.youtube.com/(topic/|(videos|recommended|autos|comedy|entertainment|film|gaming|howto|activism|people|pets|science|travel)(\?|(^?)))$TYPE(htm)"
Limit = 2048
Match = "(<div\s[^>]++class=$AV(browse-item\s*))\1(^(^"
"[^>]+>\s+$NEST(<a\s,</a>)\s+"
"$NEST(<div,*class=$AV(browse-item-content)*<a\s[^>]++href=$AV(/user/$LST(NG_Youtube))*,</div>)"
"))"
"$SET(0=\1 style="display:none")"
"|"
"<div(^(^\s[^>]++id=$AV(channel-tab-content-wrapper|browse-main-column)))"
"$SET(0="
"<style type="text/css">\r\n <!--\r\n input#toggleNGuser:not(:checked) + div .browse-collection .browse-item[style="display:none"]{display: block !important;}\r\n -->\r\n</style>\r\n"
"<input type="checkbox" id="toggleNGuser" style="margin:2px -10px -4px 0px;" checked />\r\n<div"
")"
Replace = "\0"
CSSで遊んでみた。(ieは9なら対応してたような気が)
黒いナビの左下あたりのチェックボックスを外すとトグルする
非対応ブラウザはMatchの6行目以降不要
93 :
89:2012/02/23(木) 15:29:18.94 ID:zrn0Unvm0
>>91 >>92 レスどうもです。
>>92 あっという間にかけちゃうんですか?すごいですね。
NG_Youtube.txtにまでしていたたいて・・・
正規表現勉強しながら、有難く使わせて頂きます。
ありがとう御座います。
Googleの未対応UA用の検索結果が意外と改造しやすかった件について。
恒常的にUAを変更しておこうか数分迷った。
俺はGoogleだけUA変えてるわ
96 :
名無しさん@お腹いっぱい。:2012/03/01(木) 14:49:12.76 ID:VyCfVtlt0
Googleが強制的にhttpsへ飛ぶようになってる…。
なんとか解除できないんかこれ。設定が見当たらない。
>>98 うわーこれはあかんなー。ログオフ以外に回避策ないのか。
Google Reader使いだからログオフとかありえないんだ。
遂にSSLにもおみとろん通さなきゃいけなくなったか…。嫌だ…
HTTPSよりHTTPの方がいいですー><
なんてこのスレでぐらいしか聞けないな
httpsのがいいだろ
>>99 ログイン必須なサービス以外のURI宛にはCookie遮断するヘッダフィルタ書けばおk。
俺の場合は技術力無いので、ヘッダフィルタのURL欄に↓を指定してIN/OUTのCookie全遮断してる。
www.google.(com|co.jp)/(search|images|maps|imgres)
今のところこれで、検索&MAP&画像検索はログアウト、Reader&Gmailはログイン状態で
使えてる。
>>102 おー、なるほど。かしこいなぁ。ありがとう!
>>100 そうでもないんじゃない?
たぶんリファラが上手く取れなくなるから業界には困る人もいるんじゃないのかな。
>>102 さんくす。
Set-Cookie:の方を今まで他で使っていたから、同様にやったんだが、動いてくれなかった。
Cookie:じゃないとダメなんだな。
違いがわからん。
onmousedownを消せばいい
[Patterns]
Name = "Google Redirector Skipper"
Active = TRUE
URL = "www.google.co.jp/search\?"
Bounds = "<h3[^>]+><a\s*>"
Limit = 1024
Match = "(<h3[^>]+><a href=\")\0/url\?q=\1\&sa=U\&[^>]+>"
Replace = "\0$UESC(\1)">"
108 :
107:2012/03/08(木) 21:17:31.67 ID:+/PetR800
ああ、あかんね。アンパサンドの文字参照そのまま投稿してもうたわ。
[Patterns]
Name = "Google Redirector Skipper"
Active = FALSE
URL = "www.google.co.jp/search\?"
Bounds = "<h3[^>]+><a\s*>"
Limit = 1024
Match = "(<h3[^>]+><a href=\")\0/url\?q=\1\&sa=U\&[^>]+>"
Replace = "\0$UESC(\1)">"
Boundsはなんで残してるの?
</li> (^(^</ol> (</div> )+{1,2}<div id=$AV(gbg|gbq)>))
ありがとうございまっす!
113 :
105:2012/03/09(金) 23:02:04.06 ID:l/ndcCgZ0
>>106-108 ありがとうございます
なんとなく
>>108のを使ったら解決しました
>>108のは名前からしててっきり
”数秒たってもリダイレクトされない場合は、ここをクリックしてください。”
のページを回避するための物かと思ってたんですがどうも違ったようで
作成依頼スレではないんでしょうが、これをありがたく使わせてもらいます
114 :
名無しさん@お腹いっぱい。:2012/03/10(土) 16:32:25.81 ID:UiqOAbAZ0
age
>>111 IEではおkなのですがfirefoxとchromeでは適用されません
>>115 ログインの有無じゃないの?
>>102 Chrome / sleipnir2.99(IE9) / firefoxで問題ない
うーむ
Chromeの拡張を全部切ってフィルタも
>>110+111に
>>102を入れてみたけどIE以外は変わらない
CookieもCacheも消してログアウトしてるんだけど
すまん、
>>110を改変したやつを使っていたんだが、
>>110を入れてみて原因がわかった。
Limitが少ない。64で大丈夫。
3/5にフィルタ修正
>>111して、その時Limitを増やしたのを忘れてた。
フィルタが動かなかったらとりあえずLimitを増やしてみると良いよ
ただ非表示にしたいだけならスタイルシートでvisibleとかdisplayを指定してやればOK
普通に消せば崩れないと思うが。
ブラウザによるんじゃね
Chromeだと別に問題ないし
それか消し方が悪いか
書いたフィルタ貼ったほうがいいと思う
[Patterns]
Name = "yaplog AD killer"
Active = TRUE
URL = "yaplog.jp"
Limit = 2048
Match = "<script type="text/javascript" src="
http://static.yaplog.jp/static/js/yapheader.js" charset="shift_jis"></script>"
Replace = "<!-- Target AD is killed>"
これでいい?(´・ω・`)
だな
つかReplaceは空でいい
どう見ても2048もいらないが、まあそこはどうでもいいや
ありがとう。うまくいったよ。
130 :
名無しさん@お腹いっぱい。:2012/03/17(土) 00:19:09.40 ID:uzNWMUm50
AdListにぶち込めば済む話なんじゃ・・・
[Patterns]
Name = "New HTML filter"
Active = TRUE
Limit = 126
Match = "<a href="javascript:void\(0\);" onclick="tweettwipple\(this\);" class="tuIcon" rel="\0">"
Replace = "<a><meta http-equiv="Refresh" content="0;URL=\0">"
うちでは動くからあんたの環境が問題だろう
[Patterns]
Name = "twipple trend auto redirect"
Active = TRUE
URL = "tr.twipple.jp/detail_gazou/"
Limit = 1000
Match = "<a href="javascript:void\(0\);" onclick="tweettwipple\(this\);" class="tuIcon" rel="\0">"
Replace = "<a><meta http-equiv="Refresh" content="0;URL=\0">\k"
これで動きました
色々ありがとございます
で?
ど?
ん?
BB2Cからオミトロン経由で書きこむと
「ブラウザがヘンです」errorが出るのはどうして?
バイパスにしてもダメです。
直接だと書き込めます。
何か心当たりのある人いる?
まず質問するスレを間違えてる事に気付くべき
残念
というかフィルタ作ったら書き込めるようになったw
ってことはスレチじゃないんじゃね?
.js経由で呼び出されているhtmlにはProxomitron適用されないの?(´・ω・`)
されるだろ
147 :
名無しさん@お腹いっぱい。:2012/03/21(水) 08:11:50.85 ID:ap1TQxlx0
149 :
名無しさん@お腹いっぱい。:2012/03/24(土) 11:13:30.67 ID:9ClcZc780
あげますよと
Match (
http://xxx.com/)\1<span class=scolor>hunt</span>(/1.jpg)\2
Replace \1\2
横レスだけど勉強になった
Matchにも\1\2が入るんだな
普段、秀丸正規表現しか使っていないから気付かなかった
AmazonがHTTPヘッダを返さないことがあって、IEがファイルの保存ダイアログを出しまくる
なんとかならんのか
>>153 うちもfirefoxでそんな症状だったけど
ルータのファームウェア更新したら症状が出なくなった
Mozilla/5.0 (********) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1/*****/aaaaaa/bbbbbb/cccccc/version
このようなUser-Agentに含まれる「/aaaaaa/bbbbbb/cccccc/」といった固有文字列を
「/dddddd/eeeeee/ffffff/」に置き換えたいのですが
IN = TRUE
OUT = TRUE
Key = "User-Agent: UserAgent Replace"
Match = "/aaaaaa/bbbbbb/cccccc/"
Replace = "/dddddd/eeeeee/ffffff/"
としてみても置き換わりません。どのように記述すれば置き換えられるのでしょうか?
脊髄反射で答える前に彼が何をしようとしているのか考えてみることにした
始めてみるタイプ
ヘッダフィルタはURLマッチと同じで前方一致でマッチングを試みるから。
それと、ヘッダフィルタはウェブページフィルタと違って
Replace欄には「マッチした部分をこう書き換える」という文字列だけではなくて
書き換え後の文字列全体を指定しておかないといけない。
君の書いたフィルタだと、たとえマッチしたところで、User-Agentヘッダフィールドは
「User-Agent: /dddddd/eeeeee/ffffff/」というものになってしまうよ。
Match = "\0/aaaaaa/bbbbbb/cccccc/\1"
Replace = "\0/dddddd/eeeeee/ffffff/\1"
あとUser-AgentでINをチェックするなんて意味ないよ。(していても、害はないけど)
160 :
156:2012/04/01(日) 02:05:34.76 ID:oeQwgOsP0
>>159 ありがとうございます!出来ました!
>>157-158 スマホで使うサイトに会員登録が必要なサイトがあるんですが
/aaaaaa/bbbbbb/cccccc/の部分は各端末固有の文字列なので
それを会員登録していない端末でアクセスした場合、会員登録した端末の固有文字列に置換すれば
会員登録していない端末でも会員登録が必要なサイトが使用できる、という事です。
それは高木にバレたら潰されるね
閲覧するだけなら問題ないだろうけど、それでなんらかの利益を得られたらガチで訴訟まであるぞ
裁判官はその行為をハッキングだと信じるだろう
問題ないっていうか、ばれないという意味ね
自分で勝手にするならまだしも、人に教えてもらってまでそんなことするとか
異常すぎる
IPアドレスでも判断するんじゃないの?
wi-fi でアクセスできない場合とかあるし。
端末を複数持っていて
どっちみち会員登録されているのが自分の端末なのなら大丈夫なような気はするけど
(ただ、約款によるかも。アクセス権はユーザー毎ではなくて端末毎に発行しているとかね)
他の登録ユーザーの端末を偽装して、というのであれば、
端末固有の文字列が事実上のユーザーパスワードの役割を果たしているので
不正アクセス禁止法に抵触する可能性はあるね。
NicoVideo: header light 効いてないの俺だけ?
110707+応急処置でダメだった
別窓検索が便利なのに
168 :
名無しさん@お腹いっぱい。:2012/04/03(火) 19:37:50.81 ID:xou9tnyQ0
[Patterns]
Name = "no ad script"
Active = TRUE
URL = "(^$KEYCHK(^C))$TYPE(htm)"
Bounds = "<script*</script>"
Limit = 4000
Match = "*ad(_|s)*"
このようなフィルタを書いてみたのですが
Fads
が含まれていても消えてしまい困っています
Match = "*(^F)ad(_|s)*"
だと逆に全てヒットしなくなってしまいます
どう記述すればいいでしょうか?
*[^F]ad(_|s)*
A(^〜)はAの後に〜が続かない場合にマッチする。前は見ない
ありがとうございました
172 :
169:2012/04/07(土) 01:39:18.31 ID:CWn3hCAU0
追加質問させてください
Fads
head
を例外条件とする場合は
Match = "*[^(F|he)]ad(_|s)* "
でいいのでしょうか?
どうも上手く動いていないようなのですが・・・
[^(F|he)]
↓
(F|he)の6文字以外の任意の1文字
Match = "((F|he|)?)++ad(_|s)*"
訂正 Match = "((F|he)+?)++ad(_|s)*"
個人的には
Bounds = "<script *(^(Fads|head))*</script>"
ってしちゃうかな
速度的には不利かも知れないけど
tk誤爆大杉で実用は厳しいと思うよそれ
>>169 どうせその内疲れてリスト作るだろうから最初からリストにしといた方がいいと思う
あるいは *["'.{$\s+_-]ad(s|)[0-9\s.;{+_-]* このくらいに制限しとくとか
>>175 なるほど、最初見たとき間違いかと思ったけど、開始位置を固定すればこれでいいんだね
この ((〜)?)++ ってパターンは応用範囲広いなあ
(゚〜゚)?
今開いているページのURLが格納されている変数はないのでしょうか?
って\uでいいのか
よく考えたらマスターユニットは脱力出来ないな
支援でファンネル使えないし
誤爆
ttp://neverdying.deviantart.com/gallery/?catpath=/ このサイトの左側に表示されている「Gallery Folders」という縦長の欄を消したいのですがどうも上手くいきません
Name = "Gallery Folders remove in deviantART"
Active = TRUE
URL = "$TYPE(htm)"
Limit = 128
Match = "<div(^(^\s[^>]++class=$AV(gr)))"
Replace = "<div style='display: none'"
すみませんが教えてください。よろしくおねがいします
.gruze-sidebar {display:none;}?
消す場所が違う。
非表示似た要素の親で横幅指定されてる。
chromeの要素を検証とかでhtml構造見ると良いよ。
「<b>から</b>で囲まれた語句」に対し、「この語句」に、「この語句でgoogle検索した結果へのリンク」を挿入して手動で検索する手間を省きたいです。
<b>\0</b>でマッチさせればいいとしてRelpaceはどう書けば良いのでしょうか?
はてなとかのキーワードリンクみたいに該当語句にリンクを貼りたいものの
該当語句が日本語の場合にURLエンコードで躓いたか
もしくはRelpaceに「この語句でry」をそのまま日本語で書こうとしたとエスパー
189 :
名無しさん@お腹いっぱい。:2012/04/28(土) 02:03:50.32 ID:wkBvN/iG0
age
「今開いてるページのURL」をRelpaceに含めたいんですが
そういうコマンドってないんですか?
文字コード変換したいなら自分で変換テーブル(つーかリスト)書くしかないね
俺なら文字コード指定付けてそのままサーチエンジンに渡すけどな
あ、$ESC()も忘れるなよ
194 :
190:2012/04/29(日) 12:06:27.43 ID:TV2xj7Ie0
>>191 ありがとうございます。
コマンドじゃなくエスケープなんですね
196 :
195:2012/04/29(日) 20:34:51.40 ID:Z8ugcHsN0
本当はI'm feeling luckyも組み込みたかったのですが挫折したためフィルタを2つに分けました・・・
HTTP/1.0 304 Not Modified
↑
200や304の値を編集して404にしたいのですが不可能でしょうか?
\kは使いません
$NEST((<form)\#,(\s[^>]++id=$AV(tsf)[^>]+>)\#(*(<input\s[^>]+>)\#$SET(\#= ))+*,</form>)
上記のフィルタで元のHTML(www.google.comの検索結果)に以下のようなinput要素が含まれているとマッチしません。
<input class="lst lst-tbb" value="GLib-CRITICAL **: g_variant_new_string: assertion `string != NULL' failed" title="検索" size="41" type="text" autocomplete="off" id="lst-ib" name="q" maxlength="2048"/>
NULLの後のシングルクォートを無くすとマッチするので原因は分かったのですが、なぜこうなるのかさっぱりです。
こうなる理由とこういう場合にどう対処するのが定石なのかご存知でした教えていただけませんか?
マッチングコマンドやメタキャラクタの存在自体を質問したりする奴もそうなんだけどさ
ヘルプ
>>6読めよ。全部書いてあるから
>200
一通り読んで見つけたのは「"のあとの'がネストに対応している」ですが、だからと言って<input\s[^>]+>というマッチには関係ないと思うのですが……。
他に該当箇所があって見落としてしまっているのでしょうか?
<form id="tsf">
<input class="lst lst-tbb" value="GLib-CRITICAL **: g_variant_new_string: assertion `string != NULL' failed" title="検索" size="41" type="text" autocomplete="off" id="lst-ib" name="q" maxlength="2048"/>
</form>
を対象にテストするとしっかりマッチするんだけど?
1,NEST必要?formってネストしていいんだっけ?
2,</form>が\#に収められてない。
3,再現できない。リミットは?
俺もlimitが臭いと思うね
>>202 formはネストできないことになってるし、違反しているサイトもまずないが
単に対になるタグを探す方法としても$NESTはほぼ最速かつ簡潔な書き方ができるので、よく使われる
広告ブロックで
文字列指定でブロックできるフィルタってないですか?
例えばlistにplusone.jsとかga.jsと書いておけばブロックしてくれる感じです
自分で作れ
その方が手っ取り早い
ファイル名を指定したいなら、AdListにデフォで
# Specific pathname components (after the first "/")
こんなのがあると思うが
スクリプト内の文字列にマッチしたいならKill JavaScript Bannersあたりを改造すればいいが
ページフィルタで1文字進むごとにリストを引くのは非常に遅いので注意だ
207 :
204:2012/05/01(火) 23:32:55.13 ID:woOVog2W0
ありがとうございます
参考になります
*[_"'.{$\s+-/]ad(s|)(^l)[_0-9\s.;{+-]*
これに
.adsl.ppp.infoweb.ne.jp
がマッチしてしまうのはなぜでしょうか・・・
[\s]
\とsにmatch
sとSにマッチ
〜(^adsl)(ad|ads)〜 みたいに書いた方が分かりやすいかもね。
(s|) の部分、最初にsの方が選ばれるけど後続パターンが失敗するから、結局空マッチの方が選ばれて
つまり ad だけが消費されて、その後ろは l じゃないから否定をすり抜けちゃうわけだ
否定マッチの位置を手前にずらす必要がある
ad(^sl)(s|) とかあるいは
>>210みたいに
解説ありがとうございました
みんな広告除去ってどんなフィルタ使ってるの?
AD Killerに同梱のリストはほぼ使い物にならないものなのかなぁ
あれだけあるとどれが不要なのかわからん
「除去」といっても対象によって手段がいくつかある。
・リクエスト遮断。\kを使う。
・IP詐称。.hostsを使う。
・不可視化。CSSを使う。
.hostsはProxomitronと関係ない。CSSはProxomitronと連携可能。
完全に手製
誤爆上等だけど何が誤爆してるのかすぐわかるから問題ない
自分にとって便利なように凝れば凝るほど他人にオススメできる物じゃなくなるよな
対象の仕様変更に弱くなるからな
ブラウザで管理、編集ができたら最強なのに
ブラウザ側からはいじれないし覗けないってのが理想だろう
お手製が一番便利だけど、最近じゃJavascriptので記述してdocument.writeとか
もろもろで追加する感じのが多いからな。
全て殺すならいいんだけど、一部だけ殺したい場合とかもあるし、
殺さないといけない部分が一部で残りは動作必要な記述だったりとかもあるし。
.scriptタグの中を調べるように記述すると、googleとかみたいにやたらscriptタグの中身が多いサイトだと、
フリーズしたかのようにCPU使用率が暫く跳ね上がって読み込みが時間かかるようになるんだけど、
軽く書ける方法あるんだろうか。
今はホワイトリストで除外してるんだけど。
殺す殺さないの判定が、メソッドの引数でできるなら、メソッド自体を書き換えるスクリプトを挿入するフィルタ。
グローバルで定義するなら、1文書に1回の適用で済む。
ただし、IE9はグローバルでdocumentが定数だから、エラーになるかも試練、確認してないけど。
ローカルスコープでは問題ないらしいから、全ての "function\(\) \{" の直後に挿入するのも考えられるけど、それだとメリットはない。
proxomitronのリストで管理してるからそれだと無理そうかな。
そっちの方が軽さとか考えるといいけど、汎用性も持たせると難しそうだ。
[Patterns]
Name = "Google | Ajax killer test-20110528"
Active = TRUE
URL = "(^$KEYCHK(^C))www.google.co(.jp|m)/(search\? $TYPE(htm)|extern_js/f/ $TYPE(js)(^$OHDR(Referer: *\&tbm=(isch|mbl)*)))"
Limit = 300
Match = "$TYPE(js)$STOP()\k|"
"(/extern_js/f/[^.]+.js)\#$SET(#=?prox-$DTM(tc))|"
"(<a [^>]++ class=$AV(gbmt|gbzt *) [^>]++)\# onclick=$AV(*)"
"|"
"(^$URL(*\&tbo=1*))$SET(#=<script>document.location="\u&tbo=1";</script>)$STOP()|"
"(^$URL(*\&prmdo=1*))$SET(#=<script>document.location="\u&prmdo=1";</script>)$STOP()|"
"$NEST(<a [^>]++ id=$AV(showmodes|tbpi),</a>)"
Replace = "\@"
こいつが検索結果2ページ目以降では動かなくて困っています
対応版をどなたか作成して頂けないでしょうか?
あるサイトでadblockが入ってると警告が出て
無効にしてから出直して来いと出るサイトがあるのですが(言うとおり無効にしても見れないっていう・・・)
そういうのを回避できるフィルタお願いします
そういうサイトってあちこちにあるもんなのか?
今まで1回しか見たこと無いからわざわざソース見るのも面倒なんで
そこだけ別のブラウザで見たが
多分adsense2.jsを読み込んだか弾いたかで判断してるだけと思う
ソースしか見てないから試してないけど
Match = "<script\stype=$AV(text/javascript)>\s+var\ adblock\s+=\s+true\s+;\s+</script>"
Replace = "<script type="text/javascript">var adblock = false;</script>"
これじゃだめかな
>>230 そうかー。だったら://188.143.233.13/adz/adsense2.jsを許可してもだめ?
めんどくさいからその割り込み画面作ってるscriptを潰したほうが早い
document.write(gui);を消せば十分か、試してないけど
>>231 許可というのはbypassListへ188.143.233.13/adz/adsense2.jsを追加しろということですか?
もしそうなら試しましたが変化なしでした
>>232 フィルタ作成についての知識は皆無で
もう少し具体的に教えてもらえないですか
すいません・・・
234 :
223:2012/05/10(木) 20:53:48.44 ID:ma9Z8AHt0
>>232のアドバイス通りに書くとこんな感じでいいのか?
[Patterns]
Name = "urlink.at"
Active = TRUE
URL = "urlink.at/"
Bounds = "<script type="text/javascript">*</script>"
Limit = 3000
Match = "*document.write\(gui\);*"
>>234 ありがとう
割り込み画面回避できました
236 :
223:2012/05/11(金) 02:25:48.55 ID:PKmVbqP80
うまく動いて何より
237 :
名無しさん@お腹いっぱい。:2012/05/12(土) 19:17:42.14 ID:Q1Ijauz00
置換後文字列の文字数って限界があるの?
置換後文字列を3500バイトぐらいのフィルタ作ったら末尾数バイトが消えるんだけど
俺エスパーじゃないからなぁ
>>237 自分で遭遇したり確認したことはないけど、wikiによれば限界はあるようです。
>>241 ありがとうございます。非常に快適ですw
復帰
タイトルってimg要素のalt属性のこと?
firefoxだが、ページのソースを見ると確かに無いのに画像付近を範囲選択して「選択した部分のソースを見る」で
見てみるとIMGタグもalt属性もしっかりある。javascriptで動的に追加されてるのかな?
>>244 とりあえず、どこにタイトルなどのデータが記述されているかは
ログウィンドウでアクセスしているURLを見ていれば分かると思う。
httpのアクセス傍受してりゃどっかのファイルに記述されてる
あとはそこに手を加えるだけ
ログを見てもどこにも記述されていないのですが・・・
/data/url_ranking/image/recent.js
そろそろ解答
[Patterns]
Name = "No Korean"
Active = TRUE
URL = "tr.twipple.jp/data/url_ranking/image/recent.js"
Bounds = "{"thumbnailUrl*},"
Limit = 1000
Match = "*([%e1][%84-%85][%80-%9f]|[%e1][%85-%86][%a0-%a2]|[%e1][%86-%87][%a8-%b9])*"
これで上手くいきました。
今度はこれを応用してメインページ側(
http://twipple.jp/)にも適用しようと調査しているのですが、
画像自体は
http://s1-04.twitpicproxy.com/photos/thumb/数字.jpg?key=数字 に格納されているようなのですが本文を格納していると思われる.jsが存在していないようです
これはまた別の手法で文章表示させているのでしょうか?
htmlの中で、上の方のJava Scriptの定義やらなんやらをバッサリ消して、
途中の部分だけ抜き出し、そこから先をまたバッサリ削る。と言う場合、
ウェブページフィルタ は、どのような構造の物になりますでしょうか?
単一フィルターでは無理で、それぞれに分けないといけませんか?
はちまは前は見てたけど
もう見てないな
誤爆
>>254 特定の部分だけを残して他を消す程度ならフィルタ1つでいけるんじゃないかな
どんなフィルタかは元のhtml次第だから具体例があった方がいい
258 :
254:2012/05/22(火) 17:19:22.93 ID:FU/yoAxd0
$NEST(<script,</script>)
とか指定して必要ないやつを片っ端から消していけばいい
>>258 何も考えずに作ればこれだな
Limit = 60000
Match = "(<body [^>]+>)\0*(<div class="NewsBody clr">)\1|(</div> <!-- NewsBody:END -->)\0*(</body> </html>)\1"
Replace = "\0 \1"
頭から普通にマッチして、ケツは\kで切るのが基本
>>259 その$NESTはまずいね
</script> は普通スクリプトの中には現れないが
<script は document.write("<script〜") とかされることがよくあるので相方が見つからなくなる
昔のIEは、文字列で '<script ...' 食わせるとエラ〜吐いたから、'<scr' + 'ipt ...' とかしてた筈だが、今は平気なのか?
JavaSは読み込んだその時点で実行だから、document.writeに渡した時点で、閉じタグを書き出さない限りコードは終わらないと思うが。
近くのサイトのソース見たら、'<script ...<\/script>' だった、なるほど。
>>262 はスルーしてくれ。
ちっとわかりにくい書き方だったね
"</scr" + "ipt>" みたいなのは、閉じタグの方にだけ行われることが多いっつーことね
なぜかというと、生の閉じタグが現れたらそこでスクリプトが終わっちゃうから
一方、開始タグには目だった害はないので、たいてい直書き
ちなみに
>>261のパターンってどんなの?
いまいちテストで引っかかるパターンが作れない
$NEST() はクオートの中は開始タグ・終了タグとして検査しないはずだから
document.write("<scirpt>");
document.write("</script>");
document.write("<scr"+"ipt>");
document.write("<"+"/script>");
とかは全部無視されると思われ。
>>266 おお、その挙動は知らなかった
しかしこういうケースでハマった経験が何度かあるのも事実なんだよね
多分、クォートを解釈する部分がいつもうまく動くとは限らないんじゃないかな
<script>/* I'm a comment */ document.write('<script></scr'+'ipt');</script>
こんな風にコメントの中にクォートの始まりのように見えるものがある場合とか
>>268 じゃあ$NEST()使わずにフィルタ書いてればいいと思うよ。
\"にも対応してるんだっけ?\\"があったらどうなるんだっけ、もう使ってないから忘れた。
271 :
254:2012/05/24(木) 00:30:05.47 ID:6trnY91n0
>>260 ありがとうございました。
うまくいきました。
>>259 さんのは、そのままではだめだと言う事のようですが、
他の方々の御意見はちょっと難しくてわかりませんでした。
ネットのチラシを集めたサイトがあって、このうちよく行く店だけを表示させたくてこういうフィルタを作ったんですが。
Name = "chirashi de setsuyaku"
Active = TRUE
URL = "$TYPE(htm)chirashi.valueinfosearch.net/area/kanagawa/fujisawa/"
Limit = 1024
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"・・・ ここに消したい店の名前をUTF8エンコードして入れる ・・・"
")*)"
Replace = "\n"
name属性の tdタグに店名、それに続いて comment属性の tdタグにはチラシの詳細などが 1〜3行あって一まとまりに
なってるんですが、一まとまりにしている単位が変(構造化されてない)だからCSS改変ではやりづらい。
ちなみに店舗の順番は固定ではなく、チラシが更新された店舗が上に来るフロート式です。
(続く)
たとえば「相鉄ローゼン」のうち、湘南台店・みろく寺店 以外を消そうと考えて ローゼン(^湘|み) と書き、
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"%e3%83%ad%e3%83%bc%e3%82%bc%e3%83%b3(^%e6%b9%98|%e3%81%bf)"
")*)"
これは意図通りに上手くいきました。
(続く)
気を良くして次に店名か住所に「辻堂」が含まれるものを消そうとして
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"%e8%be%bb%e5%a0%82"
")*)"
と書いたんだけど、こんな単純なものが何故かマッチしない・・・
また「ダイソー」が7店舗あるんですけど、このうち支店名が「藤」以外で始まる店を消そうとして ダイソー (^藤) と書き、
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"%e3%83%80%e3%82%a4%e3%82%bd%e3%83%bc (^%e8%97%a4)"
")*)"
これも何故かマッチせず、すべてのダイソーの店が消えてしまいます。
ここ2日ほど見直してるんだけど、何が駄目なのか分からない・・・
分かる人いましたらお助け下さい。
なんか一生懸命だからエスパーしておく
例えば「消したい店の名前」にマッチさせたい場合
× %E6%B6%88%E3%81%97%E3%81%9F%E3%81%84%E5%BA%97
○ [%E6][%B6][%88][%E3][%81][%97][%E3][%81][%9F][%E3][%81][%84][%E5][%BA][%97]
多分相鉄ローゼンの場合はhrefの中身かなんかにマッチしただけかと
>>274-276 ページのソース見ると
店名 → UTF-8 で記述されてる。
住所 → UTF-8 で記述されてる。
地図へのリンク(href="〜") → UTF-8 の店名を URL エンコード(%xx 形式)して記述されてる。
%e8%be%bb%e5%a0%82 と書くと、URL エンコードされた部分にマッチするけど、UTF-8 にはマッチしない。
店名に「辻堂」が入ってるものは、地図へのリンクに URL エンコードされた %e8%be%bb%e5%a0%82 が
入っているからマッチして消せてる。
UTF-8 にマッチさせたいなら [%e8][%be][%bb][%e5][%a0][%82] と書けば、店名や住所の「辻堂」にマッチする。
ダイソーも地図へのリンクにマッチしてるんだけど、URL エンコードだとスペースは + に変換されるので
" (^%e8%97%a4)" だとマッチしない。除外指定がマッチしないから全部消えるという結果ね。
%e3%83%80%e3%82%a4%e3%82%bd%e3%83%bc(^\+%e8%97%a4)
として地図へのリンク(=URL エンコードされた店名)にマッチさせるか、
[%e3][%83][%80][%e3][%82][%a4][%e3][%82][%bd][%e3][%83][%bc] (^[%e8][%97][%a4])
として店名にマッチさせればいい。
279 :
274:2012/05/26(土) 14:16:17.57 ID:UAoqUU+i0
>>277-278 単純なミスか勘違いだろうなと思ってはいたんですけど、やっぱりでしたね。恥ずかしい・・・
角カッコで括るのは以前書いたことがあるし、知ってたはずなのに失念してました。
長々と書いて済みませんでした。ありがとうございました。
ページ内の埋め込み動画の実態をリンク化するのってできます?
できるかもしれないしできないかもしれない
>>282 Proxomitronはデフォのままだとhttpsにはノータッチだよ
そしてどなたかGoogle | cleanup search resultsの更新をお願いします・・・
ADriveの認証ページをすっ飛ばすフィルタお願いします
>>282 広告があるページ(その例ならヤフーメールのログイン画面)がhttpなら
フィルタ内でhttp(s|)://$LST(AdList)*とかになってれば消せる
広告があるページがSSLならそのページ自体がバイパスされてる
286 :
282:2012/06/05(火) 00:41:02.61 ID:cbXf4CL+0
>>285 ありがとう
非常にくっきり、スッキリ理解できました
Banner Blaster の最新版って、これ↓なんでしょうか?
誤爆が多いのですが、使わない方が無難?
[Patterns]
Name = "Banner Blaster (2003/05/24)"
Active = TRUE
Multi = TRUE
URL = "^www.nintendo.co.jp|www.amazon.com|www.amazon.co.jp|*.digikey.com"
Bounds = "<a\s[^>]++href=*</a>|<input*>|<ilayer*</ilayer>|<iframe*</iframe>|<object*</object>"
Limit = 900
Match = "(<(ilayer|iframe|object)*|\1<i(mg|mage|nput)*src=$AV(*)*>\3)"
"&(*(href|src)=$AV($LST(AdKeys)*)|"
"*
http://*<i(mg|mage|nput)\s(*>&&"
"(*width=[#460-480]&*height=[#55-60]*)))"
"&(*alt=$AV(\2)|$SET(2=Ad))"
Replace = "\1<font size=1 style="text-decoration:none; color=#AAAAAA;">"
"[ad]</font>\3"
そりゃ誤爆するだろうな
俺はproxomitron使い始めてかなり早い段階でそのフィルタオフにしたと思う
で、hrefでAdList引くだけの簡単なフィルタを書いた (なぜかそういうものはプリセットにはなかった)
そのフィルタ晒せ
URL-KillerのリストにURLぶち込めばバナーも消えるし、間違えてクリックしても遮断するしで
Banner Blasterを使おうと思わなかった
質問です
FireFoxのAdblock Plusを使ってみたのですが
広告除去 & アフィカットがかなりの網羅率で驚きました
しかし、メインはAdblockを入れられないブラウザなので
Proxomitronを使って同等のことをしたいと考えています
Adblock Plus用リストをそのままProxomitronに使うことはできないのでしょうか?
よろしくお願いします。
無理
限界がある
そのままは無理だな
Proxomitronには通信切断されるバグがあるけどいいの?
広告カットする代わりに一部の画像が表示されない等の不具合が出るよ。
別に何とも
どうしても画像出ないと困る状況になったらバイパスすれば良いし、
そんな状況になった覚えも無い
バグでなく巻き添えカットじゃないのか。
>>295 バイパスしてるかどうかに関係なく出るよ。今まで使ってて気にならないなら大丈夫か。
例えばどこで?どのような条件で?
adblock plus のフィルタを使いたければ、自分で変換すればいいだろ
エディタやScript使え
>>298 wikiに載ってるけど偶発的に起きるバグみたいで条件とかない。
たまにしか出ないときもあれば頻繁に起きることもあるが、まったく出ないというときはない。
今まで使ってて気付かなかった人は単に本当に気付いてなかっただけで、バグは出ていたはず。
消されても気づかない画像なら、消されても問題ないだろ
>>300 wikiのどこに載ってるかわからんが、再現性がないんなら根拠なくProxomitronのせいだとは言えないだろ
画像が表示されないなら他の要素が表示されなくてもおかしくないし、ほんとにバグなの?
自分で調べろ禿げ
真偽はともかくとして、根拠URL群のコピペすら出来ないような案件なら放置が最適解ぽいね
あのさー、人を疑うようなことを平気で書けるようなクズには用無いんだけど。
信用しまいが好きにすればいいよ。知ったこっちゃないから。
もう何年更新されてないソフトだと思ってんだか…
残ってるユーザーは既知の不具合はあっても修正されることは無いのを承知で使ってるんだから
バグあるからダメだ!とか今更騒がれても反応に困るわ
不具合を回避する方法論がどうこうとかだったらまだ話にも乗れるんだがな
あと
>>297 めんどくさいから
>>295ではバイパスって書いたけど
ブラウザ側でプロキシon/offしてるってことね
俺は「バグがあるからダメ」って書いたことになってるらしい。
これが被害妄想ってやつか。
そもそも、ABP のリストを使いたいに対して、
バグあるけどいいの?不具合あるよ
と的外れの回答。何がしたいの?頭がオカシイ人かな?
通信が聞かなくなるバグって初めて知ったんだけどどういう状況で再現するの?
>>307 そういう話じゃなくて根拠を書けって話
ある程度の条件と環境や症状がわからないと書く意味ないでそ?
「全くいつの話かわからないけど、全く誰に起きるかわからないけど、全くよくわからない何かが起きます」
こんな事言っても価値がないのよ
hostsファイル依存、セキュリティソフト、回線品質etcと
通信の不具合はいくつかの要素が関係するからオミトロンが原因だって即断できない
なんか久々に伸びていると思ったら
ABPのリスト使いたいんだけど→無理→唐突に通信できなくなるバグがあるけど良いの?
とか流れ意味不明過ぎてワロタw
俺はバグに気付かないで使い続けてるおまえらにワラタよ。
周知のバグすぎて突っ込み入れる気にすらならん
気になるならprivoxyでも使っとけ
だな。
なんか急に顔真っ赤にしてネガキャン始めた輩がいると聞いて
既知のバグを知らずに使ってる奴ってけっこういるんだな
そのネガキャンが無ければ知らずに使い続けてたろうから役に立ってるじゃん
自分の環境では発生しないバグで、他人がバグるってことだけ、その発生条件等は何も分からない
そんな情報は役にたたない
発生しててもタイムアウトだと思ってるんだろう。
お前がそう思うんならそうなんだろう お前ん中ではな
ハイハイ役に立って良かったね
主張者は自分の環境で再現出来てるのだから役立ってるだろう
再現条件が不明なだけでそこまで叩くかね
単に発言が馬鹿っぽいからそのまま馬鹿にされてるだけだと思う
そもそもフィルタースレでやる話じゃ無いよね。
ID:mbi9iH/V0 ←この人かわいそう
経験的には、接続先のホストによる、ってのが一番大きいかな。
このバグが出ない接続先は、いつどれだけ接続してもほとんど出ることがない。
逆に、出る接続先は、それはもうブツブツと切断される。
それがサムネイル画像の置いてあるサーバなんかだと、画像が抜けだらけになる。
Proxomitronを外す(バイパスでも駄目。完全に外す)と
この現象は全く起こらないので、Proxomitronの抱えるバグだと思って間違いないと思う。
この現象が起きている時にログウィンドウを見ると、
「+++GET ***+++」というリクエスト送信の直後に「+++CLOSE ***+++」が来ている。
データを全く受信していない。
それ以前に、本当にリクエストを送信しているのかどうかさえ怪しい。
便宜的に「切断」と書いたけど、どっちかっつーと「そもそも接続していない」って感じ。
そうそう、こうやって
>>325みたいに順序だてて理由を説明すると
誰が見てもああこれはProxomitronのバグだろうなと納得してくれるわけだ
ID:R+hWXe5i0が馬鹿すぎてかなり無駄レスだらけになったなw
>>325には環境すら書いてないけどそれで納得しちゃうんだ。
>>325の情報だけではブラウザ側のプロキシ処理のバグの可能性も排除出来ないよ?
ID:MlUkExUU0=ID:R+hWXe5i0かw
悔しさのあまり昨日とは主張する立場が逆になってるのが笑えるw
更新停止から8年が経とうというのに、ここまで煽りあえるほど熱いユーザーが居るとは
なんて素晴らしいソフトなんだろうか
あらためて作者に感謝を
せめて煽り合うんならフィルタの話で盛り上がってくれれば良いんだが。。
>>328 読む人からすればちゃんとした理由が書かれてるのは納得しやすいと思うよ
根拠もなしに煽るよりはよっぽどいいんじゃないかと思う
>>294が煽り?事実を書いてるだけなのに?
adblockの代わりをproxomitronでやるならproxomitronの不具合の影響を受けてしまうと
伝えたかったんだけど、これって煽りなの?
昨日は「バグあるからダメだ!」って言ったことになってるし、今日は煽ったことになってるし。
少し日本語の勉強をしたほうがいいんじゃないの?
少しじゃ足りそうもないけどなwwww(←これが煽りってもんでしょw)
昨日の本人なのかw
読み手のことを考えて書くようにするといいよ
何を伝えたいのかと、どうしてそう考えたのか根拠となること等、読む人が納得しやすいようにね
やっぱ広告が許せないってやつらは神経質すぎるから煽られるとすぐ爆発するな
怖いわこのスレ
このスレでは人格攻撃なんて当たり前だぜぇ?ワイルドだろぅ?
教えてエロい人
google検索結果のリンク(リダイレクト)をやめて
直に飛びたいと思いながらここまで組んだのだけどやっぱりリダイレクトになる
wikiには&SET云々って書いてあったんだけどこれ以上はさっぱり分からないので誰か教えて下さい
[HTTP headers]
In = FALSE
Out = TRUE
Key = "Google Search Link Jump"
URL = "www.google.co.jp/"
Match = "http*htt\1&ei=*"
Replace = "$RDIR(htt$UESC(\1))"
> (←これが煽りってもんでしょw)
芝生やしただけで煽ってるつもりなあたりが恥ずかしい
>>337 >>105-108でもいいんじゃない?
どうしようもない馬鹿だと判明したのだから相手することないだろ
338に書いたけど、伝わってなさそうだから
[HTTP headers]
In = FALSE
Out = TRUE
Key = "URL: Google Search Link Jump (Out)"
Match = "
http://www.google.co(.jp|m)/url\?*\&url=(http[^&]+)\0"
Replace = "$JUMP($UESC(\0)) "
SSLでリダイレクトされたら意味ないし
webフィルタの方で直接跳ぶように直した方がいいと思う
そのクッションはgoogleにログ取られるのがキモイとかよりも
リンクが既読かどうかわからないという機能的な問題の方が大きいと思うので
俺もページ書き換える方に一票だな
>リンクが既読かどうかわからない
やっぱここだよね
リロードしただけでも分からなくなったりするし
いや覚えてるだろ。どうでもいいことだが
質問者のどこがマズイか教えるわけでもなく何様だよ
自分の読解力の無さを棚に上げて納得出来るようにとか言ってるのがワロタw
ちょっと試してみた
全履歴削除後、履歴は消さず、キャッシュは消す、Cookie許可せず
Firefox と Chrome は記憶してくれるな。Operaは再起動したらダメだったが
他のブラウザは試す気にもならない
リダイレクト先が https で ssleay32.dll と libeay32.dll がなくてもジャンプする
そんなゴミフィルタいりませーん
利用価値があるとすればヘッダフィルタの方が
速い、他のフィルタ, userscript に影響しない、
Ajax、非Ajaxを問わず使える、ブラウザを選ばない
それゆえ初心者でも簡単に手入れできる。要するに覚えれば、他の場面でも使えるだろ
>ブラウザを選ばない
>Operaは再起動したらダメだったが
ワロタw
ども、337です
>>340で希望通りの動作になりました
確かに既読にならないのは不便ちゃ不便ですが
>>105-108がうちの環境(IE9+Sleipnir1.66)だと機能しないし
当初の目的が達成できてるので問題無しです
ありがとうございますた
IEかIEコンポだと既読にならないのか
ちなみに、Operaで再起動すると既読か分からなくなるのは
webフィルタでやっても当然同じ結果になるからな
それOpera終了時に履歴を消す設定にしているだけだと思うけど
ワロタw
すいません
キャッシュ一旦削除してからだと既読になりますた
>>351 そういう話じゃなくて根拠を書けって話
ある程度の条件と環境や症状がわからないと書く意味ないでそ?
今日のNGID : tfYittJV0
ID:kTWWmlLx0 は一体いつ寝てるんだ?今?たまには部屋から出ろよw
こいつ明日も湧いてきそうだな
1
googleの検索結果で
「リンクをJaneで開く」ってのが
使えなかったのですが
108さんのおかげで解決しました
ところで、昔ここで作っていただいた
「検索結果の2chリンクを赤くする」フィルタが
スクリプト「オフ」だと効かなくて困っています
解決法ありませんでしょうか?
知らんけど、そのフィルターをここに貼れよ
>>362 [Patterns]
Name = "Google Search Result : If URL of 2ch, it reddens."
Active = TRUE
URL = "www.google.co.jp"
Limit = 141
Match = "(<a href="
http://[^.]++.2ch.net/[^>]+)\0"
Replace = "\0 style="color : red;""
こちらのフィルタです
3年前に作ってくれた方
ありがとうございました
>>363 個人情報とか気になる版
Match = "(<a\s[^>]++)\1href=$AV(/url\?(url|q)=(
http://[^/]++.2ch.net/*)\2\&(amp;|)(sa|rct|ei|ved|usg)=*)"
Replace = "\1href="\2" style="color : red;""
慈愛の心でGoogleを包み込む版
Match = "(<a)\1(^(^\s[^>]++href=$AV(/url\?(url|q)=
http://[^/]++.2ch.net/*)))"
Replace = "\1 style="color : red;""
>>364 ありがとうございました
快適にネットができるようになりました
自分も、もう少し勉強します
ありがてーありがてー
pixiv: NG (110520)が効かない・・・
>>368 サムネのURLが変わっただけでhtmlは前のままだから
その部分だけ直せばおk
Google | Ajax killer記載の「User-Agent: Unknown UA for Google (out)」であったり、
>>102さんのヘッドフィルタなどを試してみたのですが、
googleトップページやfirefoxの検索窓、選択右クリックから検索などすると
Googleのhttpsへ飛んでしまいます
これって回避不能ですか?
>>370 Chrome派の俺がわざわざFirefox入れて試してみたけど普通にhttpで繋がるぞ
>>102 +
>>366 併用
Firefox 12.0 release
>>102 書き方が分からなくて放置していたんだけど、
>>102ってどう記述すれば良いの??
貼って貰えると嬉しいです、お願いします。
373 :
あげ:2012/06/29(金) 12:57:50.58 ID:iiH5DJRB0
あげないと・・・。
<わからない五大理由>
1. 読まない ・・・説明書などを読まない。読む気などさらさらない。
2. 調べない ・・・過去スレ、ググるなど最低限の内容も自分で調べようとしない。
3. 試さない ・・・めんどくさいなどの理由で実行しない。する気もない。
4. 理解力が足りない ・・・理解力以前の問題で理解しようとしない。
5. 人を利用することしか頭にない ・・・甘え根性でその場を乗り切ろうとする。
6.感謝しない・・・教えてもらって当たり前。事がすんだらさようなら。
7.逆切れする・・・自分の思うようにならないと逆切れする。
せめて半角SPくらい調整しろ
7つあるけど
<わからない五大理由>
1. 読まない ・・・説明書などを読まない。読む気などさらさらない。
2. 調べない ・・・過去スレ、ググるなど最低限の内容も自分で調べようとしない。
3. 試さない ・・・めんどくさいなどの理由で実行しない。する気もない。
4. 理解力が足りない ・・・理解力以前の問題で理解しようとしない。
5. 人を利用することしか頭にない ・・・甘え根性でその場を乗り切ろうとする。
1. 感謝しない・・・教えてもらって当たり前。事がすんだらさようなら。
2. 逆切れする・・・自分の思うようにならないと逆切れする。
3. 自分にしか分からない質問をする・・・説明不十分、URLや製品名を書かない、自分が分っている事は相手も分かっていると思っている。
4. 日本語が話せない・・・ギャル文字を使ったり、一般的でない省略語を使う。
5. 失敗した理由を他人のせいにする・・・「弟が・・」「間違えて・・」とか
じゃあこれで
いろんなのがあるんだなw
httpsのリンクをはじきたいんだけど
OpenSSL使うしか手は無いかな
みなさん使ってる?
>>381 a[href^=https] を削除しては?
リストから一致する場合中身を全部空にしようとするとやたら重くなってしまうのだけど、
どなたか良い書き方教えてください、というか叩き台ください><
具体的な状況は、
・サイトから<script></script>で.js等を呼び出してamazonアフィとかを追加
・呼び出すjavascriptは拡張子phpで中身は.jsの場合もある
・呼び出される.jsの内容がdocument.write()で始まったりする等、状況次第で色々変わる
・呼び出し先の.jsやphpを既存のフィルタ用に登録すればとりあえずはいいが、
サイトごとにアドレスが違うので中身から判断する汎用的なものにしたい
・リストにマッチする場合、.phpの中身を空にする
もしくはわかるように<span>ad</span>に
・リストにマッチするURIは複数あるが一つでもマッチしたら全部削除
自分でも書いてみたけどフリーズしたかと思うぐらいCPUが・・・
書いたフィルタ・リスト・テストURLを出さないとどうにもならん。
>383
ええと、script要素の中に該当するURLがあったらそれの中身を空にしたいんだよね?
中身を空にするのなら代わりに\kしてしまえばいいじゃない。
In = FALSE
Out = TRUE
Key = "URL: AD Killer"
Match = "$LST(HOGEHOGE)"
Replace = "\k"
$ cat Lists\HOGEHOGEList.txt
|## List of URLs to Kill Connection
|
|(以下に消したいURL)
普通ならタグごと消すか\kで切るもんじゃね
一部書き換えならわかるが全部消すという発想は逆に思いつかなかったわ
>>385 *$LST(HOGEHOGE)で望みどおりの結果になった。ありがとう。
フィルタの順番が後だと同じリスト共有して使ってるフィルタが
先に引っかかってしまうのだけ気をつけたら大丈夫だった。
重さはだいぶよくなって実用的になったけど、プロファイル見るとやたら時間かかるね。
やっぱり<aとかで近い開始点決めないと重いけどどうするか・・・って思ったら、
*http(|s)://$LST(HOGEHOGE)でいい事に気づいた。
今度もっと誤爆少なく汎用的になるように弄ってみるよ。
え、いろいろ書いてあったけど結局やりたいことは単に指定した URL を遮断するだけだったのかよ。
ファイルの中に Math.random と document.write があればファイル全体を空にする、とかの話かと思ったわ。
大まかな内容としてはそれであってるよ。
URLとかscriptの記述の一部分(まだ少しだけど)をリストに指定してまとめてある。
記述されてるJavascriptの中身で<a〜</a>なんてのじゃなくて
ホスト名以降のurlだけを変数に入れてる場合もあるし、考えるといろいろ面倒臭い。
フリーズしたみたいになる場合も多々あるし、時間がある時にでも頑張ろうって思ってる。
波平に毛が生えた程度の知識や経験しかないから突っ込んだ事は勘弁ね。
>387
NOTHING or SOMETHINGってNOTHINGが常にマッチするから機能しない気がする。htt(ps|p)://じゃね?
それと釈迦に説法かもしれないけど、プロファイルはそのフィルタだけを繰り返して算出してるので気にしすぎはよくない。実際にフィルタを使って読み込みが引っかかると感じたときに参考にすればいいと思う。
http(s|):// で書く人が多い気がする
いや、https+:// でしょ
ヘルプの「something or nothing」の項の意味を取り違えて読んじゃっているんでしょ。
フィルタリング対象ファイル中に"
https://"という文字列があったとして、
マッチングエンジンはまず"(|s)"の左側の空表現を試して、
これは無条件でマッチするので一旦パーレンを抜けるが、
しかしこれだと残りの表現("://")がマッチせず、結局表現全体としてはマッチしないので、
バックトラックして今度はパーレンの右側を試す(そして無事表現全体としてマッチする)。
"(|something)"というのが*検索表現全体であったなら*、ヘルプにある通り
「something」という単語には絶対にマッチしない。
ただ、それが検索表現の一部に過ぎないのであったなら、
その検索表現の残りの部分との絡みで「something」にマッチすることは十分にあり得る。
こういうのはヘルプだけ読んで理解したつもりにならずに
テストウィンドウででもテストして体得するとよい。ものの10秒もかからないんだから。
httpsの背景色が眩しい今日この頃
そういやオミトロンはhttps非対応だったな
一応対応して無い事も無いが
マトモに動く方が少ないレベルなのが
色々バグがあるよな
後継が出ないのが残念
privoxyならssl対応してるんだっけ?
まあ対応してたとしても、フィルタ資産がありすぎて移行できないんだけど。
privoxyは設定が自己ルール過ぎて移行できる気がしない
https対応サイトは今後増えてくだろうから不安やな
オミトロンフィルタ互換で新しいソフト出たらいいけどねぇ
そのままか少しの修正だけで移行できるのが理想だけど、難しいだろうな…
背景色みたいなCSSで弄れる部分だけならまだ何とか
ほんと偉大なソフトを作りよったわ
いっそhttpsだけprivoxy通すとか
できるかどうかは知らないけど
privoxyがProxomitronと同じ仕様なら普通にブラウザのプロキシ設定で出来る気がするけど
同じようにフィルタかけうつもりなら移行するのと手間は変わらないと思う
# torrentz popup
torrentz.eu/tzpop
[^/]++wigetmedia.com/
# xvideos popup
[^/]++targetingnow.com/
誰か一人動いたら一気に話が動きそうな気がするけど、なかなか難しいよなー
閲覧するページ [html]に
アクセス日時をいれたいのですが
やりかたわかりますでしょうか?
ヘルプくらい見ろカス死ね$DTM使えタコ失せろ
優しいお方だ
412 :
名無しさん@お腹いっぱい。:2012/07/20(金) 01:24:15.93 ID:w2KeVnC10
>>405 privoxy もSSL非対応ですよ(通信が使えるだけで中身は触れられない)
てか使えんのあんのかSSLって暗号化されてるんだぞ
>>400 privoxy 全然普通だけど・・・
proxomitron ってそんなに簡単なんですか
9年前のソフトなのかこれ・・・作者もういないし
まぁ慣れってのはあるからね。
それに、Privoxyってマッチングが正規表現じゃなかったっけ?
HTMLへのマッチングに関してはProxomitronの独自ルールはほんとよくできてると思うわ。
正規表現よりよっぽど俺ルールだけど、完成度としてはProxomitronの勝ちじゃないかね。
まぁ、何度も言うけど、慣れの面は多分にあるけどね。
>>415 正規表現だね、[#n:n]、&、++、=、"、'、はないが、
正規表現で書けないことはない・・・冗長な表現って奴になる
Youtubeの動画内広告のフィルタください。
お願いします、この通りです<(_ _)> 、なにとぞ頼みますm(__)m
私以外にも欲しい人がいると思います。
ぐぐれ
419 :
遅レス 409:2012/07/20(金) 20:55:11.12 ID:HDoSIpc60
>>410 とってもたすかりました
___
,;f ヽ
i: i ありがたやありがたや
| | ///;ト,
| ^ ^ ) ////゙l゙l;
(. >ノ(、_, )ヽ、} l .i .! |
,,∧ヽ !-=ニ=- | │ | .|
/\..\\`ニニ´ !, { .ノ.ノ
/ \ \ ̄ ̄ ̄../ / .|
>>369 サムネのURLというのは
"$SET(pNG_pi=member_illust.php\?mode=medium\&)"
のことでいいんでしょうか?
今のサムネURLと違いがないのでどう直せばいいのか…
>>421ありがとうございます!
簡易登録ボタンで絵(pixivNGIllustID)は登録できるんですが
人(pixivNGAccountNameとpixivNGID)に登録できないようです
この場合簡易登録のフィルターを修正しないといけないんでしょうか
小説のNGが出来ると聞いたのでなんとかこのフィルターを使いたい…
まだ先になりそうだけどhttp2.0の策定始まってるらしい。
細かいところがわからないのだけど、さすがにproxomitronは使えなくなるって思っていい?
そうなった場合は乗り換えどうするか。
スコットが生きてれば・・・
タグの概念がなくなるなら使えないし
あるなら使える
永遠なんてものはないのだよ
えいえんはあるよ
うん、あるな
君と僕との間に 永遠は見えるのかな
残業とか何も勉強してない時間のテスト中とかに
付け足すと嫌になるな
プロトコルでタグ・・・?
http1.0/1.1しか対応してないだろ
いや、ブラウザ側もそうだろうけどさ
ブラウザの設定に「プロキシで HTTP/2.0 を使う」みたいなのが用意されれば使えると思う。
href 属性や src 属性を $AV() でチェックする時、
属性内最後に、ランダムの個数の数字がランダムに並べられてる場合に
マッチさせつつ、最後の3個をローカル変数に格納させるには
どのように書けば良いのでしょうか?
[0-9]++([0-9]+{3})\1.jpg
↓
\1.jpg
ありがとうございます
しかし、最後にと書いてあるように数字のみで構成され拡張子がない場合の話です
href=[^\ ]++([0-9]+{3})\0["'>\ ]
>>434 href=$AV(*([0-9]+{1,3})\1(^?))
>>437-438 ありがとうございます
(^?) で末尾にマッチするようですね。以前、試して上手くいかなかったのですが
今回はマッチしました
$UESC()
cookpadで<div id="menu_bar_wrapper">*</div>の部分を除去したいのですが、
以下のようなフィルタだと入れ子にうまくマッチせずに期待どおりに消えてくれません。
$NEST(<div¥s,[^>]++id=$AV(menu_bar_wrapper)*,</div>)
入れ子のときはどのようなフィルタを書いたらよいのでしょうか?
$NEST(<div,[^>]++\sid=$AV(menu_bar_wrapper)*,</div>)
>>444 ありがとうございます。cookpadのほうではうまく動作しませんが、TESTでは期待通りの動きをしたので試行錯誤してみます。
byte limitsの制限にひっかかっていたようです。できました。
ありがとうございました。
id属性の値が重複することはinvalidなので、「入れ子」になることはありえない。
という考え方は無粋なんだろうか。
始点と終点を探すだけならともかく。
>>447 >443は <div></div> があると判定出来ないんじゃない?
入れ子、こういうことでしょ?
<div id="menu_bar_wrapper">
<div class="hage">
<p>hoge</p>
</div>
<div>
<p>fuga</p>
</div>
</div>
id="menu_bar_wrapper"の下の2個めのdivが<div>だからマッチしない。
あと、Limitも少なかったと。
まあid="menu_bar_wrapper"「の」入れ子の閉じタグにひっかかるってことだと予想は付くけどな
それにしても回答者が無言でエスパーしてやってるんだから
おまえらも無言で流してやれよw
否定先読み使えば良いんじゃないかな。
ID指定してるサイト増えてきたから、ユーザーCSSで表示消すことが最近多い
昔のyahooは嫌がらせみたいな汚いhtml書いてたよね
それにしてもcookpadのソースは汚いな。
開始と終了が入れ子の内外に分散していたりする。
Proxomitronというよりhtmlの問題なんだけどヤフオクの取引ナビってなんでtarget="_blank"が指定されているのに挙動がtarget="_new"なの?
複数クリックしたら全部別枠で同時に表示して欲しいのに、実際は別枠の1個が次々と更新されて使いにくい・・・
ソース
<a href="/show/contact_detail?aID=XXX&target=XXX&no=3&.crumb=XXX" target="_blank" onClick="window.open
('/show/contact_detail?aID=XXX&target=ochanao&no=3&.crumb=XXX', 'XXX', 'width=650,height=420,scrollbars=yes,resizable=yes,status=0'); return false;"><b>支払いが完了しました</b></a>
onClick="window.openが実行されてるから。
これが_new扱い。
javascriptを無効にするか、オミトロンでonClick=$AV(*)削除
o&no=3&.crumb=XXX', 'XXX',の'XXX'→'_blank'が望まれる挙動。
これでうまくいきました
ありがとうございました
[Patterns]
Name = "target new to blank"
Active = TRUE
URL = "$TYPE(htm)"
Limit = 32
Match = "target="_new""
"|target="_target""
"|target="_blank" onClick=$AV(*)"
Replace = "target="_blank""
458 :
名無しさん@お腹いっぱい。:2012/08/18(土) 11:01:02.35 ID:q6b2V/1j0
[Patterns]
Name = "Google Redirector Skipper"
Active = TRUE
URL = "www.google.co.jp/search\?"
Bounds = "<h3[^>]+><a\s*>"
Limit = 1024
Match = "(<h3[^>]+><a href=\")\0/url\?q=\1\&sa=U\&[^>]+>"
Replace = "\0$UESC(\1)">"
が機能してないようですが何故かわかりますか
javascriptを使ってurlを書き換えるようになったから
>>458 Match = "(<h3[^>]+><a href=\")\0/url\?q=\1\&sa=U\&[^>]+>"
461 :
460:2012/08/19(日) 05:01:42.51 ID:bbYrZQvF0
ごめん、てっきり&amp;が&だけになってると勘違いした。
検索結果画面には普通に表示されているURLをそのまま貼ってほしいんだけどな・・・
463 :
名無しさん@お腹いっぱい。:2012/08/20(月) 01:01:47.91 ID:7szDFC2W0
URL = "www.google.co(.jp|m)/search\?"
464 :
名無しさん@お腹いっぱい。:2012/08/20(月) 12:44:12.85 ID:nlsHlLsh0
スレチかもしれませんが日本語化のやり方教えてください
日本語化パッチのアプリケーションが開けないんですTT
スレチです
466 :
名無しさん@お腹いっぱい。:2012/08/20(月) 19:32:33.21 ID:nlsHlLsh0
Yahoo知恵袋
もし圧縮アーカイブのことでつまづいてるんだったら
知恵袋がお似合いだと思う
日本語化とか言ってる時点でスレ違いどころか板違いだろ
Google AnalyticsをProxomitronのフィルタを用いてブロックしたいのですが
そのようなフィルタをください。お願いします
google-analytics.com/を接続拒否リストに入れとけ
URL Killfile.txtですよね
一番下に
google-analytics.com/
を記入しても弾かないんですけど、Proxomitronの再起動が必要なんですかね
すみません、Ghosteryを入れていて、そちらの方でカットされていた見たいです
スレ汚しすみませんでした
>>471 俺も自前のサイトに貼ってるんだがそんな嫌か?
余計な通信をなるべく削りたくなるのはProxomitronユーザーの性癖みたいなもん
Googleは力を持ちすぎて危険だ
意図しない通信ってなんか気持ち悪いから嫌
>>475 第三者が提供するアクセス解析の大半は誰がどのページ見たかの横断履歴
記録してるから、排除するのは別におかしい事では無い。
俺はそのドメインのみの限定アク解は許容してるよ。
あと、Googleは他の情報とも組み合わせやがるから嫌われてる。
広告配信サーバでマルウェアをバラまくマイクロアドや
そのマイクロアドに情報を売り渡すはてなよりはマシかな
ネット広告業界は技術力が進むほど
モラルと反比例していきそうだな
その業界だけに限った事じゃないないだろ
不必要なテレビの地デジ化とか、コンプガチャとか
資本主義は必要以上の利潤を追求しようとするから必然ちゃあ必然だけど
地デジ化はVHF帯の電波を他用途の為に空ける目的も一応あったから一緒にするのは…
地デジもコンプガチャもProxomitronあれば平気ですし
Ghostery便利でいいよね。
ただGhosteryで対策するんじゃなくて、消すべきアクセス解析とかを
proxomitronで削除する情報源として使ってるけど。
URLのマッチで正規表現は使えないのでしょうか?
*しか使えない?
wiki とかマニュアルぐらい読めよ
URL のマッチにプロトコルは付けない
http:// をつけるのは $URL()コマンドだ
そして今回の場合は
[^/]++.com/
でイケるだろ
>>488 ありがとうございます
以後気をつけます
Chromeブラウザの翻訳機能が使えなくて困ってます
右クリックから「日本語に翻訳」をしますと、「サーバーエラーのため翻訳できませんでした」になります
@オミトロンをバイパスモードにした状態でChromeを起動すれば翻訳できます
その後でフィルタモードにしても翻訳できます
Aオミトロンをフィルタモードにした状態でChromeを起動すると、ページ再読み込みやオミトロンをバイパスモード
にしてもブラウザを再起動するまで翻訳機能が使えません
フィルタを一つずつ外してみたところJavaScriptのフィルタが原因なのはわかりましたが@の状態から
JavaScriptを有効化するフィルタを経由させても翻訳できる理由がわかりません
下のフィルタなんでが原因わかりますか?
Name = "Disable JavaScript"
Active = TRUE
Limit = 128
Match = "<script*>"
Replace = "<script language="ShonenScript 712.0">"
答え出てるだろ
起動時に潰したjavascriptが原因だって
>>490はProxomitronのフィルタが疑問なんじゃなくて
script有効にすると何故Google翻訳が使えるのか知りたいのかな?
494 :
490:2012/08/30(木) 22:50:40.85 ID:jM/lFwJ70
>>492 オミトロンが原因ではない気がしてきました
すみません
疑問なのは、Chromeが一番最初にオミトロンを通して読んだページがバイパスによってJavaScriptを解釈したときは
それ以降のページの翻訳は正常になる
一方、一番最初にDisable Javascriptフィルタを通してしまうと
その後のページのリロード、バイパスとか何やっても翻訳できなくなることです
ブラウザが原因なような気がします
スレ違いだったらすみません
>>494 使ったことないから効果の程はわからんけどデフォルトHeader Filterの
Pragma: Don't force reloads (out)
ってのを使えば最新のWEBページを送ってくるかもしれない
496 :
494:2012/08/31(金) 00:32:24.63 ID:sWJNB63r0
>>495 ありがとうございます
そのフィルタを有効にしてみましたが改善されませんでした
Chromeで同じような症状の方の反応が無いところを見ますと当環境特有かもしれませんね
もうちょっと研究してみます
スーパーリロードしてもダメなんだったら
実はframeページでキャッシュが更新されないだけだったりとか
498 :
490:2012/09/01(土) 02:56:53.85 ID:cNWkcM250
結局原因が分からず、74.125.31.95をproxy.pacでダイレクトさせて応急対応しました
ありがとうございました
URL-Killer: kill-a-URL (out)チェックは入っているかい?
キャッシュが残ってるだけじゃないのか
Webページフィルタがうまく動作しない。
[Patterns]
Name = "test"
Active = TRUE
URL = ""
Limit = 512
Match = "abc"
Replace = "def"
文字列abcはページ内にあるがdefに置換されない。
フィルタはアクティブにしていて、バイパスもしていない。
>URL = ""
URL:
って入力しないと駄目なんだっけ?
>>504-505 なくてもいいような気がして省いた。
一応、www以下のアドレスや*も試したけどだめだった。
そういう場合はどこどこのページでやったってことも書いた方がいいと思うんだ
[Patterns]
Name = "test"
Active = TRUE
URL = "google.co.jp/"
Limit = 512
Match = "abc"
Replace = "def"
これでGoogleで検索しても普通にabcのままで表示される・・・。
どこが違うんだろう。
www.つけたら。
むしろどこでもいいならURLの行は丸ごといらないんだけどな
Googleで試しても普通に成功したけどな
フィルタじゃなくて設定がどっかおかしいんじゃね?
たぶんhttpsなんだろ
>>508 Google Chromeで試してない?
513 :
503:2012/09/11(火) 13:54:50.68 ID:27vqpMwK0
さっきいろいろ試していたらきちんと動作した。・・・と思ったらすぐにまた動作しなくなった。条件がさっぱりわからない。
フィルタ以外の設定。「プリファレンスの設定」は確認したけど、関係ありそうな項目は見当たらない。ここは変更していない。
オミトロンのバージョンは4.5(2003-6-1)+7。
httpsではないし、URLは指定してないから関係ないんじゃ?
ブラウザはSleipnir。Chromeで動作しないのは確認した。IEで試したところうまくいった。・・・と思ったら1回だけで以降は再現しなかった。
マンションの光接続だけど関係ありそう?
デバッグ見てみ
>>513 Limitが足りないのだと思う。
テストで足りていても、実際には足りていないということが良くある。
特に、範囲内でスクリプトなどが呼び出されている場合、呼び出されているファイル全体のかさが含まれるからな。
Limitで必要なのはマッチする部分の長さ
Match = "abc"
なら3で十分
理由は分からないが
Bounds を <a\s*</a> にしてテストすると文字数は足りていてマッチするのに
実際に利用するとマッチせず、そしてLimitを増やすとマッチすることがある
>>520 思いっきり
>>518な理由っぽい気がするけど
*に読み込み時にスクリプト関係が割り込んでくるんじゃないのかな
ここはいつから半可通が全力で間違った知識を教えるスレに成り下がったんだろう
そう思うんだったら正しいこと教えてやれ
いや、実際
>>503のフィルタ
> Limit = 512
> Match = "abc"
> Replace = "def"
を見た上で、本気で「Limitの問題」と思っちゃう人は、ちょっとどうかと思う。
なんか検索対象のファイルサイズか何かと勘違いしてるっぽい人もいるし。
Limit値は「マッチする文字列長の上限」。
これだけの長さ探索してマッチしないようだったら、探索を打ち切って探索開始位置を1ずらす。
その長さが、Limit。対象ファイルが何GBだろうがそんなことは一切関係ない。
検索文字列が Match = "abc" なのなら、マッチする場合はその文字列長は常に3。
>>519の書いている通り。Limit = 3 で必要十分。
このフィルタで、不適切なLimit値のせいでマッチしないことがあるとすれば、
それは Limit値が3未満の場合のみ。
>>503もLimitが足りないって言ってる奴も釣りだろ。
釣りかどうか知らんが、最近ド素人が質問してる流れ
そして以前から質問に間違った回答をする者がいる
俺いつもフィルタ書くときはLimitはほぼ最大値にしてる
速度にはほぼ影響ないし
>>519>>525 ああ、自分が「かさ」という抽象的な言葉を使ったからファイルのサイズだと捉えられてしまったんだな。
文字列長のつもりで書いたんだ。
例えばこう↓なっていたとき、Matchが$NEST(<div>,</div>)だったとすると、Limitは11でも、45でもなく、
<div><script src="example.js"></script></div>
内部的にはこんなふうに↓なっているから、example.jsに記述されている文字列も含むよって意味で書いたんだよ。
<div><script src="example.js">function(){}</script></div>
>>503だとabcだったから、本当にabcなのではなく例えだろうと思って、あり得る可能性を書いたんだ。
本当にabcやそこらなら、
>>519と
>>525の書いた通りで問題ないよ。
俺がどうして「半可通が全力で間違った知識を教えるスレ」と書いたか分かるか?
>内部的にはこんなふうに↓なっているから、
「内部的には」って一体何だよ、なってねーよ
ますますドツボにハマってんじゃんよ
あのさ、無理に知ったかぶって嘘教えるくらいなら黙ってろよ
一体何をどうやったらこんな凄まじく壮大な勘違いが出来るんだ
>例えばこう↓なっていたとき、Matchが$NEST(<div>,</div>)だったとすると、Limitは11でも、45でもなく、
><div><script src="example.js"></script></div>
>
>内部的にはこんなふうに↓なっているから、example.jsに記述されている文字列も含むよって意味で書いたんだよ。
><div><script src="example.js">function(){}</script></div>
ちょwどこの星のWEB仕様だよw
おいおい朝っぱらから笑わせんなw
つーか
>>503がいくらアホでも
$コマンドや*とか\1なんかを使ってたらそのこと書くだろ
[Patterns]
Name = "ultra super deluxe glorious 529 filter"
Active = TRUE
Multi = TRUE
Limit = 9999
Match = "<script\ssrc=$AV(example.js) > </script >"
Replace = "<script>$FILE(c:/proxomitron/example.js)</script>"
あらかじめexample.jsをダウンロードして保存して、Replaceを保存したパスに書き換えて下さい。
俺も
>>529と同じに理解していたんだが
Limit=3
*
なら三文字分の*にマッチすると思ってたんだが違うの?
あ、外部のjsの分まで含むよと主張してるのか
お前らなんだかんだ言ってじっくりレス読んでつっこんでやるんだから優しいよな
>>503は、単にマッチさせたい部分を該当フィルタの前に他のフィルタが奪っちゃってるか
あるいはそもそも「ページ内にあるabc」の存在自体が他のフィルタによるものってオチと予想
エスパー現ル
"abc"というのが例えばjsのdocument.write()で書き出している部分だったり、
或いは"abc"に該当するのが実際は日本語だったり(これは文字コードの問題が絡んでくる)
どっちにせよ、本当に"abc"を"def"に置換したがっているとは到底思えないので
>>503のフィルタは例なんだろうけど、
フィルタのどこに問題があるのかを特定しようとする質問で
フィルタの例示を実際のものと差し替えていたら永遠に解決しないと思うね
実際に適用したフィルタを、一切いじらずそのまま貼らないとね
webフィルタが効かない、文字列abcを文字列defに書き換えるだけのフィルタすら効かない
って言ってるんじゃないの
>>539 > フィルタのどこに問題があるのかを特定しようとする質問で
それは違うだろ
"abc"->"def"という置換が実際に適用したフィルタとは異なると考える根拠は、
通常Googleの画面上に"abc"なんて文字列はないから
"abc"でググってみた、ってんなら別だけどね
こんな基本的なフィルタすら動作しない、オミトロンがまともに動かないって言ってるだけだろ
んーならここはフィルタ作成スレだから余所行ったほうがいいんじゃないかな。
うむ、だからデバッグで見ろと言う決定的な回答で終了した
なのにその後、Limitがどうこう言いだした奴が出て以降そのLimitに関する話が続いた
更にその後、abcが違うのではと言いだした奴が出て今に至ってるだけ
そもそもの話、だ
サンプルページを出せ
っていうレスをまず書くべきなんだよ
おまえら優しすぎるんだよ。どう見てもそんな複雑な話じゃない
単に質問者に基本的な知識がないからログやデバッグ見ても謎の文字列にしか思えず
何が仕様で何が問題なのかさっぱりで他人に理解できるように質問できないだけだろ
多分確実にエスパーのどれかは正解してるんだろうが、その答えが理解できないと思われる
あとは本人が頑張ってヘルプとwikiでも読むしかない
549 :
493:2012/09/19(水) 23:08:00.47 ID:Keb+BcWd0
(´;ω;`)
>>549 画像を見てどの画面か分からなくて何も言わなかったような記憶がかすかにあるようなないような。
ログイン必要な画面だっけ?
IDないからログインせずに眺めてきたけど、言っている小窓は見つけられなかった
これクリックしたときに通信して内容を読み込んでるんかね
もしそうなら元のページにソースは含まれないから、単純に移植なんてことは出来ないんじゃないかな
ページを読み込んだ時に同時に取得して、それを希望の位置に流し込むスクリプトでも書けば出来るかもしれない
けどそれは正直手間かかり過ぎだと思う
552 :
493:2012/09/22(土) 00:46:15.83 ID:ZGuqsd8O0
>>552 該当ページの URL を書かないと話が食い違う恐れがあります。
「フィルタからソースを見る方法」ではなく、それ以前にどこにソースが所在しているのか分からない
と解釈して答えますが、
ログウィンドウを開いた状態で、@〜宛て をクリックすればどんなアクセスをしているかが表示されます。
編集メニューの「ポストされたデータの表示」にチェックを入れておきましょう。
ただ Proxomitron だけでそのデータの中身を見るのは面倒なので、
HTTP デバッガの類を使うのがいいと思います。
任意のページにアクセスすると全てのフィルタを無効
(バイパスと同効果)にするフィルタって可能でしょうか?
ヘッダフィルタの$FILTER(False)を試してみましたが
うまくいきませんでした。
バイパスリストに入れとくんじゃダメなのかい
556 :
554:2012/09/29(土) 11:54:40.91 ID:YpIotLOJ0
AdList関連フィルタで弾かれた結果が表示されてしまいます
つまりバイパス以外での
ヘッダフィルタを無効にはできない
ということですか
$FILTERではない方法があれば知りたかったのですが
どんなヘッダフィルタを無効にしたいの?
フィルタ側に問題があるんじゃないの?
普通はフィルタのURLに除外URLを指定すればいいはずだけど。
自分用に作ったのを公開
[Patterns]
Name = "PixivFavMark"
Active = TRUE
Multi = TRUE
URL = "www.pixiv.net/"
Limit = 2560
Match = "<a href="/member.php?id=($LST(PixivFavList))\1">(*)\2</a>"
Replace = "<a href="/member.php?id=\1"><FONT color="#FF9900">\2</FONT></a>"
リスト(PixivFavList)にユーザー番号を書いておくと、検索結果で表示されるユーザーの名前をオレンジ色にできる。
お気に入り済みユーザーやお気に入りにしないことが確定しているユーザーを判別したいとき便利。
ユーザーリストは
http://www.pixiv.net/bookmark.php?type=user でIrvineの「URLを送る」機能を使ってURL収集→テキストエディタで置換 で作ればいいよ。
今時font要素使うよりはa要素にstyleで指定した方がスマートな気がしないでもない
非推奨だしね
動けば何でもいいだろ
ありがとうすごく助かる
>>560 IDリストの作成はmoebbsなんかで巡回かけてURL収集、
正規表現でユーザー番号切り出しの方がたぶん楽だぜ
最後の/を抜きたいなら"スラッシュ以外"を\1に入れちゃえばいいんだよ
([^/]+)\1とかね
これだとユーザーIDに/があってもその前までが\1になるが
そんなIDないと仮定していいんだろ
注意書き忘れたけど、aタグの他の属性も取得したいなら
取得部分を書かないとだめだからな
[Patterns]
Name = "Twitter to twipple."
Active = TRUE
Bounds = "<a href*</a>"
Limit = 1024
Match = "\0http(|s)://twitter.com/([^/]+)\1"
Replace = "\0
http://twipple.jp/user/\1"
記述を変えてみたのですがこれだと
<a href="
http://twitter.com/userID/">Twitter</a>
にマッチしなくなりました (´・ω・`)
"/" が来た時点で繰り返し表現の検索が終わるから当たり前
Bounds内の最後まで消費しなければマッチするわけがない
ありがとうございました
>>483 「電波帯の有効利用」は、実際は後付けで出してきたこじつけですけどね
1ヶ月以上も前の、しかもスレチの話題に何故今頃レスを・・・?
ネット戦士は何年前だろうがスレチだろうが決して悪を許さない
数年前からそういう仕様だが
あれ、そうだったのか
検索結果の一覧を画像ファイルへの直リンに書き換えるフィルタ使ってたんだが
数日前から急にFirefoxのThumnail Zoom Plusが効かなくなって原因調べてたら
画像ポップアップで読み込む際にReferer送ってないせいだったんだわ
まあこっちの問題は解決したんで良しとしよう
Pixivは利用してないので知らんけど
>>421に答えが書いてあるだろ
画像サーバが変わったことに気づいてたのにフィルタには気づかなかったの
Pixivって以前からリファラをチェックしてたみたいだけど
>>582 7月に直してから普通に期待した動作になってたからね
それからずっとフィルタ全く弄ってないのに一昨日辺りに急に読み込めなくなって気付いた
Referer送ってやるだけでアドオンは正常に動作するんでフィルタ側の問題ではないと思う
…と、ここまで書いて思い出したけどブラウザのバージョンアップしたんだった
そのせいでアドオンの動作が変になってReferer送らなくなっただけかも知れない
ちょっとバージョン戻して検証してくる
正直すまなかった
とりあえず動くものを作った
後は自分で調整してくれ
[Patterns]
Name = "Otoko Matsuri"
Active = TRUE
URL = "$TYPE(htm)mudainodqnment.ldblog.jp/archives/[0-9]+.html"
Limit = 256
Match = "<a(^(^\s))[^>]++\shref=$AV((
http://www.mudainodocument.com/archives/(^54202863)[0-9]+.html)\1*)[^>]+>"
"$STOP()"
Replace = "<meta http-equiv="refresh" content="0;URL=\1">"
"\k"
>>585 どうもありがとうございます!
希望通りの動作です。感謝します(-人-)
ならんがな(´・ω・`)
+7
yahooの広告関係の発信元のひとつ
「ard.yahoo.co.jp」の「ard」は何の略称なんでしょうか
気になって仕方がない
お膝元のyahoo知恵袋で聞いた方がいいんじゃないかw
acute respiratory disease 急性呼吸器病疾患
alcohol-related dementia アルコール関連認知症
rd.yahoo.co.jp
ard.yahoo.co.jp
ord.yahoo.co.jp
とかがあるよね。
「rd」はReDirectの略じゃないかな。
以前、こちらのスレで、YouTubeの検索欄に、フィルタに予め登録しておいた
「-歌ってみた」や「-踊ってみた」といった、マイナス付きのキーワードを
自動的に入力補完してくれるフィルタが貼られていたように思うのですが、
どなたかご存じないでしょうか?
もし今でもそのフィルタを使用されている方がいたら、アップしていただけると
有り難いのですが・・・。
amebloの画像をjavascript切ってても表示出来るフィルタありますか?
無いことを証明することはできない
>>594 Name = "ameblo noscript image (2012-10-27)"
Active = TRUE
URL = "ameblo.jp/[^/]+/image-*.html$TYPE(htm)"
Limit = 30000
Match = "$NEST(<body,*"imgUrl' : "\1'*,</body>)$SET(2=
http://stat.ameba.jp\1)"
Replace = "<body><div><img src="\2"></div></body>"
画像への直リンにしたい場合は、Replace を以下のように。
Replace = "<meta http-equiv="refresh" content="0; url=\2">"
597 :
名無しさん@お腹いっぱい。:2012/10/27(土) 04:32:23.21 ID:PRS7fame0
598 :
594:2012/10/27(土) 10:21:16.31 ID:hfYiAOy10
それが出来るならGoogleマップもできないかな?
600 :
名無しさん@お腹いっぱい。:2012/10/27(土) 21:42:28.08 ID:PRS7fame0
Google+とかもあるといいな
https
win8動作報告がないな、大丈夫なのか
win8用なんかより、Android用が欲しい
>>604 今、実際に確認できないんだが、たぶんこれで行けるんじゃないかな。
[Patterns]
Name = "Yahoo! LOCO"
Active = TRUE
URL = "maps.loco.yahoo.co.jp/"
Limit = 422
Match = "document.write\(\'<div id="adcm" class="posMapSs">\'\);\s*document.write\(\'</div>\'\);"
Replace = "// done!"
>>560のサポート
Pixivでユーザーをお気に入りに入れるとユーザー番号を自動的にリストに追加
[Patterns]
Name = "PixivBookmarkAdd"
Active = TRUE
URL = "www.pixiv.net/bookmark_add.php"
Limit = 256
Match = "pixiv.context.userId = '(*)\1';"
Replace = "pixiv.context.userId = '\1';"
"$ADDLST(PixivFavList,\1) "
ついでに
>>560をちょい修正
色づけがされないケースに対応
[Patterns]
Name = "PixivFavMark"
Active = TRUE
Multi = TRUE
URL = "www.pixiv.net/"
Limit = 2560
Match = "<a href="(/member|member_illust)\3.php?id=($LST(PixivFavList))\1">(*)\2</a>"
Replace = "<a href="\3.php?id=\1"><FONT color="#FF9900">\2</FONT></a>"
「今時font要素使うより〜」って書き込みがあったけど、これは他のフィルタとケンカを起こしにくいようにあえてこうしてるんだぜ。
HTMLの知識を必要最小限しか仕入れてないからって理由もあるけどな。
表示させたくないだけならCSSでいいんじゃね
[Patterns]
Name = "Yahoo! LOCO"
Active = TRUE
URL = "maps.loco.yahoo.co.jp/"
Limit = 128
Match = "(document.write\s+\("<div)\1(^(^\s[^>]++id=$AV(adcm)))"
Replace = "\1 style="display: none;""
>>608 今確認したら、なぜか
>>605で該当箇所だけきちんと消えた。
@Firefox 16.0.2, IE 8, Proxomitron Naoko 4.5+8
うん、でも
>>609の方がスッキリ綺麗だ。
ニコニコのログインボタンを自動的に押してくれるフィルタくらはい
httpsだボケ
yahooショッピングの検索結果で在庫切れ商品のみを表示させるにはどう記述すればよいでしょうか?
よろしくお願いします
<li class="dcSoldOut">在庫切れ</li>
>>614 実際にサイト見てないけど、目的の項目とそれ以外でclassのところが違うなら
消したい項目のところに「style="display:none"」を追加すればいいんでない?
それが目的の項目とそれ以外で違いがなかったんですよね。
<li class="dcSoldOut">在庫切れ</li>がヒットしなければマッチング。
みたいにできればいいのですが
>>614 URL = "shopping.search.yahoo.co.jp/search\?"
Limit = 3072
Match = "(<div\s[^>]++id=$AV(contents)[^>]+>)\1"
"$SET(0=<style type="text/css"><!--\r\n #contents:target div.Wrapper:not(.wrpSoldOut), "
"#contents:target > #toggleStock a.toggle1,#contents:not(:target) > #toggleStock a.toggle2 {display: none; }\r\n "
"#mIn:hover .wrpSoldOut > div, .Wrapper:hover > div {visibility:visible\\9!important;} "
"#mIn:hover .Wrapper > div, #toggleStock {visibility:hidden\\9;}\r\n"
"--></style>\r\n\1\r\n"
"<span id="toggleStock" style="display:inline-block;font-size:12px;">在庫:"
"<a href="#contents" class="toggle1">無しのみ</a>"
"<a href="" class="toggle2">すべて</a>表示</span>\r\n"
")"
"|"
"(<div\s[^>]++)\1class=$AV(Wrapper)(^(^[^>]+>\s+"
"$NEST(<div,[^>]++\sclass=$AV(WrContainer)*,</div>)\s+<div\s[^>]++class=$AV(WrRight)[^>]+>\s+"
"($NEST(<ul,</ul>)\s+)++$NEST(<ul,*\sclass=$AV(dcSoldOut)*,</ul>)))"
"$SET(0=\1class="Wrapper wrpSoldOut")"
Replace = "\0"
■最近のメジャーブラウザの場合
ショッピング検索結果 〜 で検索した結果1〜20件目 / 約***件 の
左下に出る「在庫:無しのみ(またはすべて)表示」リンクで切替
■IE7〜8以下の場合
商品全体のオンマウスで消え、消えた項目は各項目のオンマウスで見えるようになる。とてもうざい
FirefoxとIEでしか確認してないので動かなかったらごめん
ごめん。専ブラ以外で見てる人は↓の部分を
"<span id="toggleStock" style="display:inline-block;font-size:12px;">在庫:"
"<a href="#contents" class="toggle1">無しのみ</a>"
"<a href="" class="toggle2">すべて</a>表示</span>\r\n"
これの&を半角に直したやつに取り換えて
"<span id="toggleStock" style="display:inline-block;font-size:12px;">&#22312;&#24235;&#65306;"
"<a href="#contents" class="toggle1">&#28961;&#12375;&#12398;&#12415;</a>"
"<a href="" class="toggle2">&#12377;&#12409;&#12390;</a>&#34920;&#31034;</span>\r\n"
>>617-618 確認いたしました。本当にありがとうございます
感謝して使わせていただきます
.js殺せばいいだけ
>>621 なんかほかにも消えたけども、消したかったものは消えた。
さんくす!!
623 :
604:2012/11/06(火) 19:02:53.68 ID:ZlOmuP8f0
遅レス失礼します
yahooロコでごっそり消えてしまう件、その後も弄くってたのですが
デフォルトフィルタの「Kill JavaScript Banners」が影響していたようです
それを切って作成していただいた「Yahoo! LOCO css」できれいに消えてくれました
しかし不思議なことにデバッグ画面では一切マッチしていないにも拘らず
Kill JavaScript Bannersを切ると正常に描画されるという不思議現象が起きます
一応環境書いときます
win7homeSP1、IE9:9.0.8112.16421(更新バージョン9.0.10)、prox:4.5+8
>>622 亀だが他のものを消したくないなら、
[^/]++minkch.com/js/pr_side_ama_minkch_(main|sub).jsをリストに入れて置けば良い。
また粟が白くなった気がする
そろそろ白山もか
みなさんAdListどんな感じですか
1800行超えた・・・
できるだけホストで指定してるから900で済んでる
サイト固有の広告をリストに入れようか、専用のWebページフィルタを書こうか迷って
結局なにもしないことが多くて、俺は320行しかない
380行だな。
win板には30万行って人がいるね
ハッシュ化すれば、増えても問題ないんじゃないの?
AdList は URL-Killer: kill-a-URL (out) にしか使ってないし
3,500行しかないから、その程度までなら全く問題ないとしか言えないけど
広告関連は他のフィルタ数種類がメインだから、AdListは100行しかなかった
URL毎にclassとかid単位でkill出来るの便利
誰かアドリストまとめ完全版アップしる
*
究極過ぎる…
>>634 ちょw もはや、Proxomitronを使う意味がないな。
適当にjs書いて置換する
Google改悪しやがって…
FacebookもMSもそうだけど、IT企業ってなんで改悪したがるんだろうね
まぁどんな変更してもお前らは決まって改悪って言うんだけどな
慣れって怖いよね
・自分の考え=メジャー
・自分の考えに合わない変更=改悪
なんだから仕方無い。
自己中ってのは力のある奴がやるから意味あるんであって、弱者の自己中は
惨めでしか無い。
また改悪したのか
それでも使うけど
>>643 そう卑屈にならんでもええ
お前のことはとーちゃんがよーわかっとるで
>>643 その発想が、Googleや、MSの中の人の発想で、
作るもの世間の希望と折り合わないんじゃないのかな。
好みは人によって違うんだからカスタマイズしやすい方向に持っていけばいいのに
Windowsとか融通の利かないお節介機能付けて初心者から上級者へ進むためのハードルが高くなってる。
細かい設定方法は隠す傾向にあって初心者に見せるのは微妙で少ない選択肢のみ。
底辺が多数派だからそいつら用に設計してそれに使う側が合わせろって考えなんだろうな。
これが情強(笑)である
650 :
637:2012/11/26(月) 21:22:48.65 ID:1Po5z0V/0
(´;ω;`)
>>647 そそ、初めから組み込み済みなのがね。
慣れていない人でもすぐに使えるようにとの配慮なら、もっと簡潔で構わないし、
慣れている人は、それに必要な機能を追加できるように選択肢があれば良いだけなのに。
万人が最初から最後まで使える完成した構成なんて存在しないのに無茶をするからあんなゴミになるんだ。
全くだな
初期フィルタなんか同梱せずプレーンな状態がいいよな
フィルター乞食がなにいってんだか
バックアップもリストアも簡単なんだから、邪魔だと思ったら初期フィルタは無効にするなり消すなりすればいいよ。
むしろ、インストール直後は全てのチェックを外して必要なもののみひとつずつ有効にすることをすすめる。
サンプル集だな。
1個ずつどういう動作をするものか確認、理解できて必要だと思ったらオンにすればいい。
ようつべを昔っぽくしようか
すれば
下方に答え書いてあるじゃん
生のソースに style="height: 427px" となっている部分があるか見て
あるならそれを書き換えればよい
つかどんなフィルタで何をしたのかも書いたほうがよくね?
>>658 同じ語句で検索してソース見たけど
どこにもstyle="height: 427px"に該当する部分が無い
なんか他のフィルタ効いてない?
あと自作フィルタ使ったなら質問する時はそのフィルタ書いた方が回答しやすい
[Patterns]
Name = "pixiv.js"
Active = TRUE
URL = "source.pixiv.net/source/js/pixiv.js"
Limit = 32
Match = "popularIntroduction\(\);"
>>663 きれいさっぱり除去できました、ありがとうございます
スクリプトファイル側の記述を変更する
勉強になりました
>>663 マッチ文最後にセミコロンを入れるのは何故なんでしょうか
javascriptだからだろ
Webバグ用のフィルタってないですか
・リファラやUAをごまかす系のヘッダフィルタを入れcookieは必要な物以外蹴る
・おまじないとして親切にもディレクトリやファイル名にbeaconとか1x1とか入ってる画像をブロックする
・暇ならAdblock等のフィルタをProxomitron用に適当に置換してAdListにつっこむ
番外
基本的にクラウド鯖等を除き無関係な鯖のファイルを読み込まないようにフィルタとリストを自作管理する
(この手の自分以外に管理できないマニアックなフィルタは表に出ないので欲しければ自作するしかない)
表示サイズ1x1の画像はスペーサとして使われることもあるしログ採り用のもあるから
ローカルに置いてある1x1の画像に置き換えてる。
パスに?とかcgiが入ってる画像ファイルはホワイトリストの以外はデフォで殺す。
復活用カキコ
twitterやfacebookなんかのコメントが埋め込まれているを消すフィルターを
お願いします.
think さん作の Proxomitron で Autopagerize する物って今動いてます?
wedataAutoPagerizeSITEINFO_ConvFromOrigin.js がシンタックスエラーをはくのですが
673 :
名無しさん@お腹いっぱい。:2013/01/10(木) 13:17:02.48 ID:eUCzOlSm0
あげ
すまん、バイト制限っていくつまでだっけ。
18歳以上
>>675 そっか、ありがとう…って違うわw
フィルターのLimitで頼む。
677 :
名無しさん@お腹いっぱい。:2013/01/11(金) 09:51:12.38 ID:bhmKjL6y0
ワロタw
678 :
名無しさん@お腹いっぱい。:2013/01/11(金) 12:55:25.29 ID:vGx4ZUn60
Java appletsって使われてるサイト多い?
見分けるにはどうすりゃいい?
>>676 亀だけど、オミトロンのエディタからだと32767が上限
32768以上を書いても32767になる
iniを直接弄ればそれ以上でもOKだけど、普通そんなに使わない
.ini ファイルなんてあるのか?
.cfg を直接編集じゃなくて
あぁ、オミトロンは.cfgだった、いつもの癖だ
>>680 ありがとう、ありがとう!
ちゃんとメモった。
ごく短い部分を消せません
例えば
<div class="erosidebar"
テストでは消えます
しかしフィルタでヒットしない場合、何を疑うべきでしょうか?
コメント・・・?
バイパスされてるとか
ログウィンドウで確認すべき
>>684 URLが同じで全面広告になるやつだったら普通は毎回表示されるわけではないので
フィルタが意図しない影響をしているか、ブラウザのCookieがおかしいとか。
とりあえずバイパス&キャッシュ消去しても広告表示されるか確認を。
スクリプトを全部無効にしちゃうとかでも防げるような気がする。
その処理をしているスクリプトを特定出来ればいいんだけど
こっちは毎回表示されないので調べられない…。
サンプルページを提出しなさい
691 :
684:2013/01/24(木) 18:44:02.49 ID:jfZVzjzi0
雨雲の動き*沖縄県\(那覇\)でおk
>>693 すいません、やってみたのですがうまく行きません
何かおかしいでしょうか?低レベルですみませんが・・・
Name = "tenki速報"
Active = TRUE
Multi = TRUE
URL = "
http://guide.tenki.jp/guide/headline/"
Bounds = "1024"
Limit = 256
Match = "雨雲の動き*沖縄県\(那覇\)"
Replace = " "
>>692 Name = "sample 1"
Active = TRUE
URL = "guide.tenki.jp/guide/headline/$TYPE(htm)"
Limit = 500
Match = "(<div\sid=$AV(bd-sub))\#"
Replace = "\@ style="display:none;"$STOP()"
または
Name = "sample 2"
Active = TRUE
URL = "guide.tenki.jp/guide/headline/$TYPE(htm)"
Limit = 30000
Match = "$NEST(<div,\sid=$AV(bd-sub)*,</div>)"
Replace = "$STOP()"
>>695 2つも作ってくださってありがとうございます、両方ともやってみます
ありがとうございます!おやすみなさい!
ごめん、< ;ってなってるところは < に書き換えて下さい。
横だけど凄く勉強になりました
ありがとうございます
このフィルターを使いたいのですが、IE6で楽天での検索文字列が文字化けします。
どこを直せば良いのでしょうか?
Amazon商品ページに「楽天で検索ボタン」を設置する
[Patterns]
Name = "Rakuten Search in Amazon [121019]"
Active = TRUE
Multi = TRUE
URL = "(www|).amazon.(com|(co.|)jp)/ $TYPE(htm)"
Limit = 512
Match = "<span id="btAsinTitle" >\0(\s\(\4\) |)\5<(/|)\1span\2(<!--aoeui-->|</h1>)\3"
Replace = "<span id="btAsinTitle" >\0\5<\1span\2\3<br />"
"<form><input type="hidden" name="aa" value=""></form>"
"<form name="raku" accept-charset="UTF-8" method="get" action="
http://pt.afl.rakuten.co.jp/c/102d7510.bb7d87e2/" target="_blank">"
"<input type="hidden" name="v" value="2">"
"<input type="hidden" name="s" value="1">"
"<input type="hidden" name="f" value="3">"
"<input type="hidden" name=sitem value="\0">"
"<button type="submit" onclick="document.raku.submit();">楽天で探す</button>"
"<input type="hidden" name="scid" value="af_ich_link_search">"
"</form>"
元はここにありました。
http://blog12345.seesaa.net/article/298016165.html
なんかアフィコード入ってるように見えて試す気にならない
うん、アフィコード入ってるねw
てか作者だろ
今更フィルタのアフィ程度で騒ぐなよ
作者さんちっすちっす
オミトロン使いはそんなんConnection Killedになるだけだろ
707 :
699:2013/01/28(月) 15:10:39.21 ID:IwRc1NwS0
すみません、アフィコード入ってるんですか。
>/c/102d7510.bb7d87e2/
ここ↑辺りですか?
どなたか、それもざっくり削ったフィルターを作ってくださいませ。
フィルタ乞食ってどこまでも他力本願なんだなw
このアフィコードでググったら作者のWeb出てくるな
こういう使い方は違反だろ、通報しとくわ
楽天Webサーチで検索して、引き続き同じキーワードでGoogle検索させる方法はないでしょうか?
楽天で検索ポイント稼ぎながら使いやすいGoogle検索に結果を表示させたいと思っています。
乞食でスンマセン
pixivNGがまたおかしくなったな
ふーん
>>710 ありがとうございます。
御教示頂いた通りに、UTF-8 を、EUC-JPや、Shift_JIS に替えてみましたが
同じように文字化けしてしまいます。(「〓〓〓〓〓」な字が多い)
ブラウザの問題でしょうか?
[Patterns]
Name = "Rakuten Search in Amazon [121019]"
Active = FALSE
Multi = TRUE
URL = "(www|).amazon.(com|(co.|)jp)/ $TYPE(htm)"
Limit = 512
Match = "<span id="btAsinTitle" >\0(\s\(\4\) |)\5<(/|)\1span\2(<!--aoeui-->|</h1>)\3"
Replace = "<span id="btAsinTitle" >\0\5<\1span\2\3<br />"
"<form><input type="hidden" name="aa" value=""></form>"
"<form name="raku" accept-charset="EUC-JP" method="get" action="
http://esearch.rakuten.co.jp/rms/sd/isearch/vc?g=0" target="_blank">"
"<input type="hidden" name="v" value="2">"
"<input type="hidden" name="s" value="1">"
"<input type="hidden" name="f" value="3">"
"<input type="hidden" name=sitem value="\0">"
"<button type="submit" onclick="document.raku.submit();">楽天で探す</button>"
"<input type="hidden" name="scid" value="af_ich_link_search">"
"</form>"
>>712 今回は以前のサムネURLのみの変更の時とは違って
HTML自体の構造に手が入ってるから書き直す箇所多いよ
頑張れ
716 :
710:2013/01/29(火) 05:11:50.95 ID:RcdGAIt10
>>714 ieで試してなかった…
修正&ゴミを削除でこんな感じ
[Patterns]
Name = "Rakuten Search in Amazon [re]"
Active = TRUE
Multi = TRUE
URL = "$TYPE(htm)(www|).amazon.(com|(co.|)jp)"
Limit = 512
Match = "<span id="btAsinTitle" >\0(\s\(\4\) |\s\[\6\] |)\5<(/|)\1span\2(<!--aoeui-->|</h1>)\3"
Replace = "<span id="btAsinTitle" >\0\5<\1span\2\3<br/>"
"<form><input type="hidden" name="aa" value=""></form>"
"<form name="raku" method="post" accept-charset="euc-jp" action="
http://esearch.rakuten.co.jp/rms/sd/isearch/vc" target="_blank">"
"<input type="hidden" name=sitem value="\0">"
"<input type="submit" value="楽天で探す" onclick="document.charset='EUC-JP'; document.submit();">"
"</form>"
※Replace項のinput typeはhiddenよりtextのほうが便利かも
>>700 表示部分なら「数値文字参照」にした方が便利だと思う。
これなら文字コードが異なる複数のサイトで使える。
今回のは特定のサイトでしか使わないけど。
楽天で探す
↓
&#x697d;&#x5929;&#x3067;&#x63a2;&#x3059;
718 :
717:2013/01/29(火) 09:08:36.86 ID:MeXZqNLH0
717の&amp;は半角の&で
どこのサイトでも出てくる「男がびんびん」みたいなのがうぜえのでどうしたらいいか教えてくれ。ください。
そんなサイト見たことない
721 :
714:2013/01/30(水) 23:59:47.29 ID:eiZdgUDv0
>>716 すみません、文字化け直りませんでした。
OSが2000なので、そちらの影響かも知れません。
少し自分で弄ってみます。
ありがとうございました。
>>717-718 ありがとうございました、使ってみます。
ソース公開すりゃ済む話に見える
どうしても公開したくないっていうんなら無理だけど
>その気が無くてもうっかり私の作品に混入したら目も当てられませんからね。
>当然万一に備えて手を入れた箇所はProximodo専用に新規に書き下ろした処理のみにして、他では一切使用しないようにProximodo用処理であることが一目で分かるような書き方をしていますが。
元発言のこれを読む限り自分で書いたコードが人の目に触れることを前提としているので、ソースの開示を絶対に避けたいという意図はないだろう
素直に読めばGPLにまつわる予期しない揉め事に巻き込まれたくないんだと思われる
まさに「GPLはごたごたしそうで怖い」「GPLだから開発に協力しない」ということだろうな
ディレクトリたどったらマウス筋Liteの作者か
あとで有料化する予定だからソース晒したくないとか勘ぐってしまうな
これで儲けようとしたけどライセンス問題でできなかったお話だな
GPLでよかったわ
GPLの恩恵を受けておきながら、気づいてなかったからBSDLにしろとか盗人猛々しいな。
嫌GPLじゃ仕方ないな
GPLの限界ってわけでもないけど
GPLを採用した以上こうなっても仕方がないと言う例のひとつだな
ID:iNkwbepq0
>>724 違う。嫌GPL問題に見せかけてるだけで、本当のところはソース出したくないだけ
そいつの他のソフトも見ればわかるが、ほとんどオープンソースプロジェクトからの派生版だが
ソース公開してるものは一つもなく、元がフリーのものをシェアウェアにしてるものまである
むしろこういうクソハイエナ野郎を目の当たりにすると
GPLの有用性を評価せざるをえない
乞食な俺には成果物が得られない以上「初めから無かった」に等しい。
フィルタで日本語 SJIS が使えるのは魅力的だが、SJIS オンリーなのは魅力ダウン。
とはいえ、utf8 とか混在出来るようになれば全力で土下座するねw
俺からも土下座しとくわ
ソース公開したくないからライセンス変更しろってただのわがままだよね
まあバグとりしていけばWindowsでも使えることがわかっただけでも良しとするか
736 :
722:2013/02/01(金) 07:18:35.99 ID:LYl1/EtpP
すまねえ、こんなに食いつきがあるとは思わなかった。
言い出しっぺが申し訳ないけど、続きがあれば本スレでやろうぜ。
>>722のリンク先元文章だけ読むと作者はソース公開に備えてるように読めるのに
彼の公開ソフト群を探すと150度ほども印象が変わってしまう不思議w
過去の行状って大事なんだねえ……まあ結局スレ違いだけど
そりゃあお前、いくらなんでも
「勝手にシェアウェアにして金儲けしてやろうと思ってたのに、ライセンスのせいでできねーよチクショー」
なんて本音は書かないだろw
だよなあ
Liteのついたソフト群の中身を見てから印象変わったわw
Proxomitron フィルター作成スレッド Part14
www.pixiv.net/member_illust.php\?mode=manga
をバイパスリストに入れる
743 :
719:2013/02/02(土) 14:47:24.49 ID:uBdNFCop0
>>720 エキサイト、アホー、スペースアルク辺りのインタレストマッチ。
薄毛、加齢臭、薄毛、ピンピン!こんなのばっか。介護の資格とかいらねーから。
インタレストマッチってどういう意味かわかる?
面白いマッチ
>>746 >>663をそのまま使ってる?
試してないけど、Match末尾の ; を削除するとそういう動作になるような気がする。
そりゃあjavascriptぶっ壊すわけだからな、どこかでエラー出るわ
>>747 ありがとうございます
ご指摘の通りセミコロンが抜けていました
>>560,607を修正
色づけがされないケースに対応
[Patterns]
Name = "PixivFavMark"
Active = TRUE
Multi = TRUE
URL = "www.pixiv.net/"
Limit = 2560
Match = "<a href="(/|)member(_illust|)\1.php?id=($LST(PixivFavList))\2"(*)\3>(*)\4</a>"
Replace = "<a href="/member\1.php?id=\2"\3><FONT color="#FF9900">\4</FONT></a>"
ありがたや
752 :
名無しさん@お腹いっぱい。:2013/02/18(月) 07:53:13.75 ID:eXpvIRRZ0
あげにょ
proxoより優れてるとこあんのかな
まぁ、それ以前に起動できないんだがw
普通に動作するけど、modoはログの煩さが好きになれなくてなあ
現時点ではProxomitronの方が上でも将来的に代替になってくれるとありがたい
Lite で終わったかと思ったら、そこから次のソフトが出てきてくれた
今はそれで十分
VS2010使ってるからWin2k以前のOSは不可かな
作者がライセンス無視しようとしたキチガイ
ソースは2ch
公開しても作者にはメリットない。むしろアーロンみたいなのに絡まれるリスクが出来るだけ。
アーロンって何?
ホームアーロン?
示現エンジンに絡んでくるやつ
この手のソフトは性質上、細部への異常なこだわりを持つ利用者が多いので公開と同時に不満で埋め尽くされる
それを乗り越えられる精神力を持った開発者でなければモチベーションの維持ができないため開発継続は難しい
いままでいくども2ちゃんねるにProxomitron後継ソフト開発者が現れたがユーザーからの総攻撃に耐えられず散っていった
>>753さんはいつまで続くかな〜陰ながら応援してしてます
>>761 公開するのは作者のためじゃなくてプログラムのためだよ。
よく勘違いする輩が多いけど。
プログラムのためってどう言う意味?
ソースコードは資産だからね
まじかよブルドックソースの株買ってくる
Proxydomoもしかしてsse2以降しか無理?
動画エンコードソフトとかハードウェア制約があるならともかく・・・
ローカル串でそんなコンパイルする人はいねーだろ
>>771 >>770じゃ無いけど動いてるPenIIIノートがあるんだよねー。
まあ俺の場合それにはLinux入れてWineでProxomitron動かしてるけどw
同じくPenV
VC2005から2010まで入ってるんだけどなぁ
ほかに必要なランタイムでもあるのかな?
XPのSP3
だったら問題ないはずだけど
プロジェクトのプロパティ見てもSSE使う設定になってないし
どんなエラーが出るの?
Proxydomo.slnにVC2012っぽい記述があるんでVC2012なんじゃないのかな
問題が発生したためProxydomo Moduleを終了しますってやつ
「この問題についての参照」見てもちんぷんかんぷんでどれを抜粋していいかわからんです
>>46のpixiv : img direct access [12/02/09]というのを導入してみたんですが
画像を直接表示出来るようになった代わりに作品の個別ページに飛べなくなってしまいまして
その辺どうにか改善できないでしょうか?
好きなように弄りゃいいじゃん
サムネが画像への直リン・画像タイトルが個別ページヘのリンクになってるはずだけど。
前も思ったけど、動かないページを明記してほしいわ。ランキングと検索・マイページぐらいしかテストしてないから。
あと、他フィルタ全部切っての確認も。
in_script というグローバル変数は何をテストしてるの?
>>784 サンクス
document.write に誤爆しないようにしてるのね
>>786 こちらの環境では再現できなかったので修正できない
[Full] [Manga]をなくすので良ければ、
|
(^(^</body>))
$STOP()
以降(この3行を含む)を削除でOK
win7
chrome(25.0.1364.97 m)
Sleipnir2.9.15(IE9.0.8112.16421)
Opera/9.80 (Windows NT 6.1) Presto/2.12.388 Version/12.14
firefox 19.0
>>787 なんとかその方向に持っていきました
しばらくこれで凌ごうと思います
ありがとうございました
>>786 過去版のフィルタになってるんじゃないのか?
俺も同様の症状で困ってたんだけど[11/02/03]から
>>46の[12/02/09]導入で以前の動作に戻ったわ
使う人間しか更新しない
更新されないってことは使われてないって事だ
これを機に勉強するといい
0から作るのは気合がいるけど出来合いの物に手を加えるだけなら簡単だし
自分の好みに合わせて改造できるようになった方が幸せ。
そのフィルタが動いてた頃とはhtmlソース自体の構造が変わっちゃってて
結構な大改修しないといけないからむしろ一から作った方が早いかもよ
俺はめんどかったんでCSSで弄ってついでに5列表示にしといた
>>794 マジか。
使ってないのに適当なこと言ってすまん。
俺もYouTubeのは大きく変わって以降1回は何とか追従したけどその後面倒で放置してたりする。
あれはリンク抽出サイトを意識してんのかね。
ソースがコロコロ変わる大手サイトに対応するフィルタは作り方覚えて
自分で対処していくしかない。他人に頼むってことは、
「作り方覚える気がありませんが何か?」って言ってるようなもの。
>>796 YouTubeは可愛い方だが、ニコ動やmixiは頻繁すぎて、一部を除いてProxomitronでの対処を投げた。
mixyは知らんけどニコ動はもう2、3年くらいは大きな変更が無いような。
1回か2回は表示位置を決める目印にしてた部分の記述が変わって手直ししたかもだが。
タグやCSSセレクタやURLの法則くらいなら自分で手直しできるようになろうぜ
全然関係ないけど$UESCがもうちょっと賢ければなあ
CSS3で指定できる幅がかなり広がったしな。
勧告候補の実験段階の機能にも面白いものがあるよね。
pixiv仕様変更した?
と思ったけど最近のだけ変わってるみたいだ
サムネのURLがユーザ名じゃなくて投稿日時に変更されている
検索結果のサムネイルを画像直リンクに書き換えるの無理っぽいなこれ
なんという改悪…
XMLHttpRequest で medium ページ読み込んで _m 画像の URL をスクレイピングする、
とかなら出来そうだけど、面倒すぎるし読み込み完了まで時間かかる…
AJAX脳こわい
再投稿された画像が元の仕様のURLにあって読み込めてないとか糞ワロタ
なんでPixivは同じ要素のマークアップがページによって違うんだ……
ちょっと耐えきれなくなったので久々にフィルター弄っているんだけどなんだかなぁ
レイアウト用のカラムの構造とかも見た目同じなのに何種類かあるよね
増改築を繰り返してたらカオスな建物になっちゃった感じ
グリモンの方は何とか弄れたがこっちはpixiv無理っぺぇーな
どう頑張ってもURL噛ませられんわ
サムネを画像直リンクにするのは諦めて、リンクをmode=bigの方に書き換えて
リンク先をマウスオーバーでプレビュー出来るアドオンを併用することにした。
いろいろ不満は残るけど現状これで我慢するしかなさそうだ。
まあどうにかする方法があったとしても個人でこっそり使うわな
対策されたらめんどくさいし
ここに書いたら対策されるもんな(微笑
>>811をヒントに
・サムネのリンクをmode=bigに書き換える
・mode=mediumからのrefererを送ってやる
・mode=bigのページ弄ってlocation.replaceで画像ファイルにリダイレクト
これでサムネクリックで元画像表示出来た
スマートな方法じゃないけど自力じゃこれが限界だ
なんかpixivのスクリプトを仕事で書いているやつのマッチポンプに見えてきた
見えない敵が見える病気の患者がいるな
そうか考え過ぎか
じゃあフィルター作ってくれ、よろしく
ページ内に無い情報はjsで通信しないとダメだからなぁ・・・
鯖負荷がどれぐらいになるんだろうか
js使うとともうフィルタじゃなくてスクリプトだなw
何言ってんだこいつ
よくわからんが、ピクシブはjavascriptをサーバー側で処理してくれるんか!
ありがとやで〜
何言ってんだこいつ
どこが皮肉になるんだ
ajaxを知らんのか?
pixiv : img direct accessがもう対応できないっぽいから外してPixiv Lazy plusに切り替えた
今までありがとうそしてさようなら(´;ω;`)ノシ
自分で作る気はないのか・・・まぁここはクレクレ隔離スレだからしょうがないか
まあアドオンやらユーザーJSやらの代替手段で我慢出来るならそれで良いんじゃね
対応してるうちに自分で弄ってやってること理解しておかないと
対応しなくなってからの改造はさらにハードルが上がる。
忘れた頃に弄る事が大体だから
理解するのにかかる時間なんて変わんねかったりする
UserScriptに移れるなら移ったほうがいいだろ
いまでもpipeline、SPDYの恩恵は受けられないし、HTTP2.0がきたら完全にお荷物
pixivLazyPlusは漫画形式を直で読み込めないし
AutoPagerizeとの相性も良くないから代用にするにはちょっと役者不足じゃね?
ホワイトリストか、乙。
更新乙
ホワイトリスト便利そうだ
Bloggerのコンテンツに関する警告がうざいのでこのようなフィルタを作ってみた
[Patterns]
Name = "blogspot auto redirect"
Active = TRUE
URL = "*blogspot.jp/"
Limit = 500
Match = "<a class="kd-button kd-button-red" href="\0" target="_parent">"
Replace = "<a><meta http-equiv="Refresh" content="0;URL=\0">\k"
ボタンを自動で押してくれるので楽にはなったが、警告が表示されることには変わりないのでうざい
最初から警告ページを出さずに直接コンテンツを表示させることは出来ないのでしょうか?
837 :
名無しさん@お腹いっぱい。:2013/04/12(金) 06:35:36.44 ID:xflgwN5+0
重いフィルタになるような気がするのですが
UTF-8で書かれたWEBページをSHIFT-JISに変換するフィルタって出来ないでしょうか?
やめとけ。別の機能でやった方がいい。
たとうばブラウザ自体の機能。
ない。そんなフィルタを作る暇があったら別の方法で対応するから。
pixivの画像に直接飛びたいよ〜><
オミトロンじゃもう無理だから諦めろ
>>843 そこまで笑うのなら、そいつより良いもの作ってみたらいいんじゃないかな。
4.4でSSL接続するにはどうしたらいいんだっけ??
Proxomitron-Jにあるssl.zip(SSLeay32.dll,libeay32.dll)をぶち込んでも、
Proxomitron.infoの奴ぶち込んでも、
Sorry, This version of SSLeay doesn't contain all the needed functions.
It may be too different a version or complied without all the necessary algorithms.
ProxomiTron Application Error
SSLeay_add_all_algorithms
と出て使えない。4.5系なら問題ないんだが…
それだけ自信作ってことなんだろう
作者のモチベーションが高いことはいいことじゃん
若干痛々しいとは思うけどな
作者について調べたら吹いたお
WINNER!
>>843 そいつってソースが公開されてるフリーソフトに
「Lite」とつけてシェアウェア化しまくってる奴だろ
クソじゃんw
>>843は本人だろ
もう誰も話題にしてないのにわざわざURL貼り付けてご苦労様です
Google: Delete SearchNoiseがフォーム崩れが起きるようになってしまった
メンテしてもらえないでしょうか?
[Patterns]
Name = "Google: Delete SearchNoise [2011/01/07]"
Active = FALSE
URL = "www.google.co(.jp|m)/(hws/|)search"
Bounds = "<li(\s[^>]+|)>?++(^(^<(/|)([ou]l|li)(\s[^>]+|)>))"
Limit = 4096
Match = "*<a\s[^>]++href=("|)"
"(/url\?([^>]++\&(amp;|)|)q="
"|/aclk\?([^>]++\&(amp;|)|)adurl="
"|)"
"http(s|)://"
"$LST(SearchSpam)"
"*</cite>*"
Match = "<li((\s[^>]+|)>\s+(<(h[1-6]|blockquote|span[^>]++class=$AV(tl)|div[^>]++class=$AV(vsc))[^>]+>[^<]+)+)\1"
"$NEST(<a,[^>]++\shref=$AV((/url\?(*\&(amp;|)|)q=|/aclk\?(*\&(amp;|)|)adurl)http(s|)://$LST(SearchSpam)*)*,</a>)"
Replace = "<li style="display:none !important;"\1"
Bounds無し
アフィリエイトで、本来のURLの「://」が、「%3A%2F%2F」と書かれている場合、
これを変換するにはどうしたら良いのでしょうか?
$UESC
857 :
855:2013/04/25(木) 14:17:55.40 ID:A8MZqnON0
>>856 ありがとうございます。
「px.a8.net」で始まるamazonのアフィリエイトを削除するフィルターを作ってみたのですが、
これで良いのでしょうか?
[Patterns]
Name = "Amazon asamashi [px.a8.net] deleter [20130425]"
Active = TRUE
Multi = TRUE
Bounds = "<(area|a)\s*>"
Limit = 256
Match = "\1href=(["']|)*(http%3A%2F%2Fwww.amazon.co.jp*)\2%2F%3F*("*)\3"
Replace = "\1href="$UESC(\2)\3"
すみません、既存のamazonアフィフィルターと併用すればこれだけで良かったみたいです。
[Patterns]
Name = "[px.a8.net] deleter [20130425]"
Active = TRUE
Multi = TRUE
Bounds = "<(area|a)\s*>"
Limit = 256
Match = "\1href=(["']|)*px.a8.net*(http%3A%2F%2F*)\2("*)\3"
Replace = "\1href="$UESC(\2)\3"
>>854 フォーム崩れはなくなったものの検索結果にフィルタリングができていないようです
>>854 こーいうこと・・・?
[Patterns]
Name = "Google: Delete SearchNoise [2013/04/25]"
Active = TRUE
URL = "www.google.co(.jp|m)/(hws/|)search"
Limit = 5000
Match = "<li((\s[^>]+|)>\s+(<(h[1-6]|blockquote|span[^>]++class=$AV(tl)|div[^>]++class=$AV(vsc))[^>]+>[^<]+)+)\1"
"$NEST(<a,[^>]++\shref=$AV((/url\?(*\&(amp;|)|)q=|/aclk\?(*\&(amp;|)|)adurl)http(s|)://$LST(SearchSpam)*)*,</a>)"
Replace = "<li style="display:none !important;"\1"
いや、動かないんだけどね
POST メソッドのリクエストだけフィルタマッチさせることはできる?
POSTは無理。
863 :
名無しさん@お腹いっぱい。:2013/05/17(金) 17:52:11.66 ID:gU+iGqIK0
自分で確認してから書き込みなよ
865 :
名無しさん@お腹いっぱい。:2013/05/17(金) 18:06:20.32 ID:gU+iGqIK0
Chromeで効いたわ
Firefoxのスクリプトが悪いんだな
スレ汚しすまんな
[Patterns]
Name = "futaba: AdDel (130521)"
Active = TRUE
Multi = TRUE
URL = "[^/]++.2chan.net/"
Limit = 4096
Match = "[%8d][%4c][%8d][%90]:::<b>*</a></b><br>"
"|$NEST(<div,\sstyle\=$AV(width:468px;height:60px;((margin:2px)|))*,</div>)"
"|$NEST(<div,\sid\=$AV(rightad)*,</div>)"
"|$NEST(<div,\sclass\=$AV(ama)*,</div>)"
「しごと情報ネット」という求人情報サイトの(
http://www.job-net.jp/kensaku/servlet/kensaku?KensakuZokusei=01)
不要な情報をフィルタリングしたい
●リストにある社名でマッチ
●マッチしたことを示すように「!!! shigoto_kill.lst !!!」というテキスト表示に書き換え
という事がしたいのですがうまくいきません
私が普段使っている検索クエリURLのtxtファイルを参考にうpします
消したい社名も入ってます、直でURL書き込むと長すぎて
書き込み出来ないようなのでこういう形をとりました
http://www.age2.tv/rd05/src/up8648.zip.html よろしくお願いします
[Patterns]
Name = "shigoto jouhou net LSTkill"
Active = TRUE
URL = "www.job-net.jp/kensaku/servlet"
Limit = 4096
Match = "$NEST(<div class="d-sole">,<td colspan="7">$LST(shigoto_kill),</div>)"
Replace = "!!! shigoto_kill.lst !!!"
<div,
$NESTのinnerの対象は、挟まれてるもの全部
あるページを開くと特定のアプリケーションを起動させる事はできるのでしょうか?
(例えば2chを開いた時に壷を起動させる)
ふたば
サイド広告とカタログに対応
[Patterns]
Name = "futaba: AdDel (130531)"
Active = TRUE
Multi = TRUE
URL = "[^/]++.2chan.net/"
Limit = 8192
Match = "[%8d][%4c][%8d][%90]:::<b>*</a></b><br>"
"|$NEST(<div,\sstyle\=$AV(width:468px;height:60px;((margin:2px)|))*,</div>)"
"|$NEST(<div,\sid\=$AV(rightad)*,</div>)"
"|$NEST(<(table|div),\sclass\=$AV(ama)*,<(/table|/div)>)"
>>871 ブラウザの設定を変えればproxomitronとの合わせ技で可能。
MIME-typeをproxomitronで置換し、そのMIME-typeを任意のアプリで開くようにブラウザで関連付けをする。
874 :
868:2013/06/06(木) 20:03:02.70 ID:XOi0jhko0
>>869,870
ありがとうございます、なんとか完成しました
[Patterns]
Name = "job-net LSTkill"
Active = TRUE
URL = "www.job-net.jp/kensaku/servlet"
Limit = 4096
Match = "$NEST(<table style=,*<td colspan="7">$LST(shigoto_kill)*,</table>)"
Replace = "<center><font size=1 color=FF0000>!!! shigoto_kill.LST !!!</font></center>"
あとフォントの大きさは変更できたのですが色指定が効かない
omitronで解決できるでしょうか
>>871 URLアクション機能のあるブラウザに乗り換えるw
余分な工程を挟む原始的な方法でいいならローカルに置いたバッチファイルへのリンクを適当なタグに追加してもいいかもね
urlの指定は出来るから[^.]+.2ch.net/ならbodyタグにC:/age/hage/2ch.batへのリンクを追加とか
batなら複雑な起動オプションでも好きに付けられるし
javascriptを使えばストレートに起動できるけどproxomitronでどうやるのかわからない
まあ普通に考えてwebからの情報でローカルのプログラム起動されたら溜まったもんじゃねえな
ActiveXが何か?
>>876 ローカルのhtmlで出来たから出来るものと思い込んでたよw
警告ダイアログ付きでいいなら出来るみたいだけどこの場合は価値がないね
ttp://q.hatena.ne.jp/1145354904 マルウェア的な人が埋まってるページだとJavaの脆弱性を突いたりjavascriptでマイナーな拡張子のhtmlをDLさせてそのローカルhtmlから実行とかやってた気がする
まあこれはこれ以上考えても意味ないね
879 :
871:2013/06/07(金) 00:26:31.47 ID:7kyXqLTq0
>>873,875
アドバイスありがとうございます。
色々やってみたいと思います。
>マルウェア的な人が埋まってるページ
なにそれこわい
俺も埋まりたい
えっ
Google検索結果の各リンクをクリックしたときに
転送URLに書き換わらないように
[Patterns]
Name = "Google: no redirect"
Active = TRUE
URL = "www.google.co(.jp|m)/search\?"
Bounds = "$NEST(<a *>,</a>)"
Limit = 512
Match = "\1onmousedown\2"
Replace = "\1onmousedowntown\2"
としても
2ページ目以降が書き換わりません。
884 :
883:2013/06/21(金) 16:34:21.91 ID:CMw9GxgG0
検索設定ページでインスタント検索をOFFにすると
2ページ以降も書き換わります。
そりゃDOMを書き換えてるからな
ヘッダでリダイレクトかましたほうがいいだろう
質問です
CSS Listで指定したURLのみでmy.cssを適用したいと思っています
どこが間違っているのでしょうか・・・
[Patterns]
Name = "CSS-IKKATSU"
Active = TRUE
URL = "$LST(CSS List)"
Limit = 512
Match = "<link rel="stylesheet*"
Replace = "<link rel="stylesheet" type="text/css" href="C:\\css\\my.css" />"
>>886 *「俺最強wwwだれも俺を止められないww」
>「ここは俺に任せておまえらは逃げろ!!…*め、俺の命に代えてもこの先は通さんっ…!」
というやりとりが足りない
その書き方だと
<link type="text/css" rel="stylesheet" 〜
みたいに書いてあるのは漏れるな
あとそういうのはオミトロンのフォルダ内にある html フォルダ内に入れて
http://local.ptron/my.css とでもしたほうがいい
[Patterns]
Name = "CSS Fix"
Active = TRUE
URL = "$LST(CSS List) $TYPE(htm)"
Limit = 8
Match = "(</head>)\0"
"$SET(#=<link rel="stylesheet" type="text/css" href="
http://local.ptron/my.css">\n\0)"
"$STOP()"
Replace = "\@"
んな感じでどうか
わざわざ既存のCSSを置換する必要はない
my.css を工夫して既存の物を上書きするように書けばいいだけだから
大変ご丁寧にありがとうございます
おかげで問題が解決しました
891 :
名無しさん@お腹いっぱい。:2013/06/28(金) 16:43:34.77 ID:5ZGDGep4P
ぜんぜん無理じゃないよ。
ふたば更新
もっとスマートな方法がないか思案中
[Patterns]
Name = "futaba: AdDel (130707)"
Active = TRUE
Multi = TRUE
URL = "[^/]++.2chan.net/"
Limit = 8192
Match = "[%8d][%4c][%8d][%90]:::<b>*</a></b><br>"
"|$NEST(<div,\sstyle\=$AV(width:(728|468)px;height:(90|60)px;((margin:2px)|))*,</div>)"
"|$NEST(<div,\sid\=$AV(rightad)*,</div>)"
"|$NEST(<(table|div),\sclass\=$AV(ama)*,<(/table|/div)>)"
ふたば更新
[Patterns]
Name = "futaba: AdDel (130711)"
Active = TRUE
Multi = TRUE
URL = "[^/]++.2chan.net/"
Limit = 8192
Match = "[%8d][%4c][%8d][%90]:::<b>*</b><br>"
"|$NEST(<div,\sstyle\=$AV(width:(728|468)px;height:(90|60)px;((margin:2px)|))*,</div>)"
"|$NEST(<div,\sid\=$AV(rightad)*,</div>)"
"|$NEST(<(table|div),\sclass\=$AV(ama)*,<(/table|/div)>)"
ふたばまた更新・・・
[Patterns]
Name = "futaba: AdDel (130713)"
Active = TRUE
Multi = TRUE
URL = "[^/]++.2chan.net/"
Limit = 4096
Match = "[%8d][%4c][%8d][%90]:::<b>*</b><br>"
"|$NEST(<div,\sstyle\=$AV(width:728px;height:90px;margin:2px(|\sauto))*,</div>)"
"|$NEST(<div,\sstyle\=$AV(width:468px;height:60px;(margin:2px)|)*,</div>)"
"|$NEST(<div,\sclass\=$AV(tue)*,</div>)"
"|$NEST(<div,\sid\=$AV(rightad)*,</div>)"
"|$NEST(<(table|div),\sclass\=$AV(ama)*,<(/table|/div)>)"
d アリガタヤアリガタヤ
897 :
895:2013/07/23(火) 15:47:38.16 ID:J/EYfIObT
追伸
それでもまだ広告が顔を出すようならLimit値を増やしてください
ふたば更新
[Patterns]
Name = "futaba: AdDel (130814)"
Active = TRUE
Multi = TRUE
URL = "[^/]++.2chan.net/"
Limit = 8192
Match = "[%8d][%4c][%8d][%90]:::<b>*</b><br>"
"|$NEST(<div,\sstyle\=$AV(width:728px;height:90px;margin:2px(\sauto|))*,</div>)"
"|$NEST(<div,\sstyle\=$AV(width:468px;height:60px;(margin:2px(;|))|)*,</div>)"
"|$NEST(<div,\sclass\=$AV(tue)*,</div>)"
"|$NEST(<div,\sid\=$AV(rightad)*,</div>)"
"|$NEST(<(table|div),\sclass\=$AV(ama)*,<(/table|/div)>)"
d
最近googleが隙あらばSSLにリダイレクトさせようとしてきてうざい
ヘッダフィルタで切ってるけど要らんお世話だ
隙あらば.co.jpに移動させられることに比べれば
SSLを使わされるのはむしろ利点。
乗り換え先欲しいけど移行が大変そうすぎて断念してる
IPv6とかもあるし、そろそろ乗り換え準備したいのだけど無料で良いの無いかねぇ
Proxomitronを経由して接続するとたとえバイパスに設定してもサイト側にProxyと判定されてエラーメッセージを返されるのですが
直接接続のように見せかけることはできないのでしょうか?
やい方をご教授頂ければ幸いです m(_ _)m
やいやいやい
やり方をご教授頂ければ幸いです m(_ _)m
教授は帰りました
やり方をご教示頂ければ幸いです m(_ _)m
判定
疑惑 0%:proxy の兆候は全く見られません。
ローカル接続の持続時間にチェックは入れていませんし、
なおかつバイパスモードでもProxy判定されるのです。
そしてProxomitronを通さず接続した場合は判定されないのです・・・
それなら原因がお前の環境にある確率が高いだろうな
条件を合わせた他の人が良くてお前だけがダメなら必然的にそういうことになる
そのサイトとやらがわからんから全く同じ条件での判定ではないが
>>913 Wiresharkか何かでProxomitronからウェブサーバへの実際の通信をキャプチャして
ブラウザが直接サーバへ接続した場合との違いを調べればどうかなあ。
Connection:ヘッダ以外にも違いがあるかも知れないし。
Proxomitron以外のローカルプロキシ、例えばFiddlerだとプロキシと判定されるか
とかも調べるといいかも。
Fiddlerでプロキシ判定されないなら、ブラウザ→Proxomitron→Fiddler→ウェブサーバ
のようにProxomitronの外部プロキシとしてFiddlerを指定すればWiresharkの代わりに
通信内容を調べるのに使えるかも。
ログウィンドウ開いてヘッダ表示だけにして見てみれば?
>>914 診断くんではちゃんと「疑惑 0%:proxy の兆候は全く見られません。」と判定されるので環境依存ではない気がします
url貼れよ。試してやるから
あくしろよ
労力が無駄すぎってぐらいユーザー少ないだろうに、
わざわざLocal.ptronとかで弾いてるやつあったよなそういえば
でもバイパスは無理そうだけど
Google検索が強制httpsになっちゃったね。
jpだけでなくcomも。
DLL使うとhttps使えるみたいだけど
それを実際にやってたサイトってあったのか?
>>921 ポート変えてたら検知できない、
127.0.0.1:8080で何らかのウェブサーバが動いていたら誤検知する、
とかあまり練られてないアイデア。
>>924 >ポート変えてたら検知できない
ポート番号を変えて全部スキャンすればいいんじゃね?
誤検知もkilled.gifがあればの話だね
>>922 プニルver1.16+オミトロンhttpで検索出来るよ
いまだにsleipnir1.16を使ってるのか・・
確かに良いブラウザだったし、昔はお世話になってたけど、
さすがにそろそろ辛くないか?
なんか"Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1)"を名乗ってもダメだったからこうした
未確認UA向け(?)の検索結果にならないのが難点
[HTTP headers]
In = TRUE
Out = FALSE
Key = "Location: SSL Page Jump Blocker"
Match = "
https://(www.google.co(m|.jp)/*)\1"
Replace = "$JUMP(
http://\1)"
うちだとXP+IE7まではhttpsに飛ばされずに済むけどなぁ
IE7を名乗るとヘッダが黒帯になるけど
気付くとhttpsになってることもあるけど基本的に飛ばされることはないな。
User-Agent: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)
>>928 問題が起きたらとりあえずProxomitronのログを見よう。
今回の場合は一般のHTTPヘッダでは見かけない「URL-Killer: URL killed」と表示されて
鯖からの返事が何も来てないはず。
Proxomitronが通信を止めてるので回線を切った状態でも同じ反応。
で、鯖側は関係無くProxomitronが何かしたことが判るのでヘッダフィルタからURL-Killer:〜ってのを確認しよう。
AdListってのを参照してるのでBlockListの設定でそれに紐付けられてる「URL Killfile.txt」ってファイルを。
一応バックアップしてから適当な部分を削除して試してみれば原因になってる部分が見つかる。
下の方にある
[^/]+\w[/?.](ad(s|erver|verts|log.pl)[0-9]+/|banner(s|)/|GetAd|cookie.crumb|js_source|hitometer.js|index.cgi\?id=???)
って部分にindex.cgi?id=testが引っかかる。
ぶっちゃけデフォで設定されてるこのリストの大半のURLは日本人には無縁だろうから全部消しちゃってもいいくらい。
ただ自分で追加する時の書き方の参考になるかもなので
問題になった部分だけ修正して他は残しておいた方がいいかも。
自分で設定した覚えのない初期設定のせいで問題が起こるってことがたまにあると思うんだけど
初心者にお勧めの初期設定セットってどこかにあるのかな?
全部オフの状態で0から自分で作れってのもハードルが高すぎる気もするし。
昔そういうの見た記憶がある
最近だとニコ向けのくらいじゃない?
>934
なったりならなかったりする
なっても何回かリロードすると大丈夫みたい
googleとかtwitterとかでたまにあるけど
SSL接続してると突然繋がらなくなる不具合っぽいのがある
再起動で治るけど
そもそもSSLはフィルタリングできないんだから
串の設定でSSLでオミトロンは使わないようにすればいい
検索ごときでSSL使わせようとするgoogleまじで余計なお世話
SSL接続してると証明書エラーのポップアップが出るけど
解決方法が新たにsocket刺さないといけないらしくて面倒だから自動的にOKボタンを押してくれるアプリいれてる
これが消えてくれたらなあ…
Googleとの通信でのセキュリティ面での一番の心配はGoogleによる情報収集だからSSL使おうが関係無いんだよな
根本が物作りの企業と違って根本が情報屋だから
そういう面ではまったく信用できない
Google様はSPDY接続に移行したがってるから仕方ない
イメージ検索直リンにするフィルタが使えなくなったくらいかなぁ
まだ対応できてない人がいるの?
うわようつべの動画開始前CMが入るようになったわ
SSLとか勘弁してくれ
https回避する方法おしえてー
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0; T312461; Q312461)
でいけました
困ったときのIE6だな
googleのhttps回避の為、適当にヘッダフィルタで
httpに飛ばし直してたんだけど
完全に302でループするようになったみたいだ。
もうUA偽装でやるしかないですかね?
とりあえず
>>951で何とかなったけど。
httpは許さん!みたいな感じがするw
ProxomitronでいろいろいじってるからSSLにされると不便てだけじゃなく
その執拗さが気持ち悪くて逃げたくなるこの気持ち
Googleの件、ここで話題に出始めた頃は平気だったけど時間差で駄目になったわ。
細かい対応も面倒だしGoogleに対してはUA送るの止めて解決。
UA変えて見づらくなった所は諦めて
FirefoxのuserContent.cssでよしとする。
Googleのあのソースと戦いたくないしw
ひっそりとProxydomoの開発が進んでた
flvplayer_wrapperさえ動けば乗り換えるんだけどなー
それはローカルのを使うだけだからフィルタ書けば動くでしょ
NicoVideo: Set flvplayer_wrapper 100916 で
$AV(*/nicoplayer.swf*\0) を $AV(*/nicoplayer.swf\0)
にすれば動いたよ
Proxydomoは色々とコンパクトで使いづらかったや
Flash Playerが使われているサイトやゲームの画質を常にlowにするフィルタ作ってほしい
もしくは作って欲しい
そんな汎用フィルタは無理
全然、もしくわ、じゃねぇええ
なるほど、ありがとう
それでは申し訳ないのですがフィルター作っていただけますか?
もしくは
>>966を翻訳して欲しい
>>968 使ってるブラウザは何?
FirefoxかChromeなら
>>966が拡張としてそのまま使えたと思う
うん、グリモンは入れてるから分かるんだけど、どういう代物か分からず怖かったので・・・
ちょっと入れてきますね。ありがと。
966のって全ページで実行されるしexcludeにちまちま追加すんのも面倒だし
かといってソースからflash使ってるか判別するにも負荷かかるしでどうしようもない
>>971 通常はClick to PlayでFlashそのものをOFFにしておいて、
FlashONにするサイトの内、頻度の高いサイトだけincludeに入れておけ。
>>966程度で負荷気にするならそれくらいはしないと意味が無い。
むしろdocument.getElementsByTagName('object')で
タグを調べるだけで負荷がきついってのが、どの程度のスペックなのかが気になる
おすすめ記事をクリックしたら2ch-c.netに飛ばしやがるアフィブログに対抗
[Patterns]
Name = "2ch-c.net skip"
Active = TRUE
URL = "2ch-c.net"
Limit = 256
Match = "<div><a href="(*)\1" target="_blank" id="pickup">"
Replace = "<meta http-equiv="refresh" content="0.01 ; URL=\1">"
977 :
名無しさん@お腹いっぱい。:2013/10/23(水) 19:30:48.98 ID:ZIfmPUQS0
2chまとめ系(特にライブドア)が見れなくなるのは
どのフィルターがいけないんでしょうか?
数が多くて特定できない
>>977 ログウィンドウを出した状態で該当ページを開くと
適用されたフィルターが表示されるから、一つずつ切って確かめたら?
>>977 フィルタを約半分OFFにしてページ読み込みを繰り返してどいつが原因か絞り込め
普通なら リンクをクリック→ソフトで開く という動作をするファイルなのに
一部のサイトで リンクをクリック→ダウンロード確認→ソフトで開く という動作をしてしまうことがあったので
そういったサイトでもファイルを直接開くようにするヘッダフィルタを作ってみた
[HTTP headers]
In = TRUE
Out = FALSE
Key = "Content-Disposition: attachment (in)"
Match = "*"
Replace = "inline"
動作確認URLはよ
Proxydomo にフィルターを一括インポートする方法がさっぱり分からん。
Proxydomo Wiki にはのってないのですけど、どなたか教えていただけませんか?
cfg.txtの中身全選択コピーでできたような
cfg.txtじゃないや .cfgね
ie11かavastかわからんけどProxomitron使えなくなった・・・
うちはIE6のあばすとだけど使えてる
「使えなくなった」だけで状況把握できるエスパーはここにいない
>>985 IE オプション "ローカルアドレスにはプロキシサーバーを使用しない" のチェックを外す
989 :
903:2013/10/27(日) 16:57:49.42 ID:078X77Sz0
いろいろ調査した結果、フィルタ全OFFでもProxomitronがHTTP_PRAGMAを送信しており
サイト側がこれを見てProxy判定してエラーメッセージに飛ばしていた模様
HTTP_PRAGMAを隠し生接続を装うフィルタを追加で解決
[HTTP headers]
In = FALSE
Out = TRUE
Key = "Pragma: "
Match = "*"
自分で送ってたんじゃないの?
言ってることがデタラメすぎる
次スレはよ
俺が立てることに賛成してくれる人が10人以上いれば立てるけど
俺が10人分になってやる
問題ない、やれ