FC2ブログを利用していて、sitemapsを登録したんですが、なぜか携帯向けのページしかインデックスされません。
どのような原因が考えられるか、教えていただけないでしょうか?
>>929 44ページあるけど51ページインデックスされている。
よくわかんない。
1週間前にtitleとdescription書き換えたんで俺は今むしろインデックス消したい
いつまでも古い情報が残ってて置き換わらない
更に1週間くらい必要だと見ているが
935 :
Name_Not_Found:2008/09/09(火) 01:21:32 ID:QSWMb1G2
グ−グルにサイト登録してるのに SEOチェッカすると 登録されてないことになってる なぜだ
モバイル用のウェブマスターツールってどれ?
ディープクロールまだかいやー
リダイレクトなんて使ってないのに、リダイレクトエラーがたくさん起こってる。
原因がわからない…
但馬乙
YahooとMSNとGoogleのサイトマップツール比べるとGoogleのが一番アホだ
インデックスされないとかであんま気にしない方がいい
941 :
Name_Not_Found:2008/09/29(月) 11:39:08 ID:Jp35RPnt
googleウェブマスターツールについてなんですが、
マイレポート>サマリー のホームページクロールで「Googlebot が最後にホームページにアクセスしたのは 2008/08/23 です」
と表示されますが、クロールに関する情報を見ると毎日クロールされています。クロールされてからインデックスされるのに
タイムラグがあるのは分かりますし、2008/08/23以降コツコツと外部リンクを貼ってもらっている結果も反映されているのは
確認しています。
「Googlebot が最後にホームページにアクセスした」事と「クロールした結果インデックスを修正した」事とは
違う意味なのでしょうか?
先週sitemapのbotが狂ったようにアクセスしてきてた
およそ5分弱の間に50回ほど
俺はなんもしとらん
なにこれ?
先日は落ちたと思ったら、中身いじくってたのか?
サマリーにクロールした日付が出なくなったぞ。
あー俺だけじゃなかったのか
hatenaからリンクが張られると、「外部リンクのあるページ」が非常に使いにくくなるわ。
同ドメインはまとめるとかあればいいのにね
21日から再送信してもステータスがずっと保留中なのは俺だけかな?
>>947 今確認したらこっちも保留中になってたよ。
自分が持ってる複数サイトが全部保留中になってるから、
どうもGoogle側でなんかやってるみたいな感じだね。
うちは4サイト登録してるけど、1サイトだけ8時間前にチェックしてくれてたけど
他の3サイトは保留になってた
サイトマップ、今までは再送信したらすぐにダウンロードされたけど
再送信してもダウンロードする間隔が強制的に数日置きになってる感じがする。
ウェブマスターツールのリンク情報が反映されてない
外部リンクやサイトリンクの部分
ror.xmlを登録したら
descriptionの表記がないってエラーになるね。
なんじゃこらGoogleさん
怒るなよ…、単刀直入に聞く。
Yahoo!にはrorを作成しなきゃダメか?xmlだけでおkかと思ってた。
マジで怒んないでくれ。いきなり300ページ弱あるサイトマップを送ったらSEO的にマズいとかないよね?
955 :
Name_Not_Found:2008/12/18(木) 22:16:55 ID:poF1wmlW
ツンデレ♪ツンデレ♪ツンデレ♪ツンデレ♪
>>954 >Yahoo!にはrorを作成しなきゃダメか?xmlだけでおkかと思ってた。
おk
>いきなり300ページ弱あるサイトマップを送ったらSEO的にマズいとかないよね?
サイトマップは1ファイル50000まで登録できる
そんなアホ仕様があったとしても300程度で引っかける訳ないだろjk
文法が間違ってるとか?
なんか保留のままだ
960 :
Name_Not_Found:2009/02/18(水) 14:42:05 ID:ae4k6UPg
うちも保留のまま。
961 :
Name_Not_Found:2009/03/01(日) 17:57:02 ID:w4Kx4yDx
サイトマップのステータス
一覧では「エラー」、詳細を見ると「OK」
問題があるのかないのかはっきりしてくれ
ウェブマスターツールが英語になってしまって戻し方がわからないんだが誰か助けて
クッキー全部削除してもダメ?
どこかに言語選択のドロップダウンリストないですか?
全部英語になってしまったことがあるけど、
適当に移動しまくって、どこかで言語選択したら元に戻ったよ。
どこで選択したのかは覚えてない。役に立たなくてごめんよw
965です。追記。
選択したのは、ウェブマスターツール内ではなかったと思う。
googleのどこか。
1週間ぐらい前にグーグルにインデックスされているページが
100ページぐらいに減っているのを発見(トップページさえインデックスされていなかった)
→ sitemap.txt(1000ページぐらいのURL掲載)を作成して送信
→ 現在まで site:hogehoge.com での検索結果 約 1,900 件になる。
(但し「インデックスに登録されている URL: 554」)
しかし、「robots.txt により制限された URL」というのが67もあるのはなぜ?
しかも、ほとんど同じようなことを書いているシリーズものの中で
一部のページだけがこれに引っかかってるんですけど…
968 :
Name_Not_Found:2009/06/12(金) 12:51:14 ID:8BLioQ6B
age
>>967 robots.txt見ればわかる
ちなみに俺は空w
970 :
Name_Not_Found:2009/06/21(日) 17:04:59 ID:aVy8r8Mt
age
971 :
Name_Not_Found:2009/06/28(日) 14:57:24 ID:GFsIKUkE
捕手
gogle
age
974 :
Name_Not_Found:2009/07/08(水) 05:57:39 ID:4+Naz5vB
age
♪
捕手
>>976
(>_<)
オワタ