ExBB Community » Файловый ExBB » Решение проблем » Постоянная переадресация

Страниц (2): « 1 [2]
 

16. igrok54 - 30 января 2011 — 18:54 - перейти к сообщению
yura3d пишет:
На мой взгляд, подход с сайтмапом больше подходит для относительно статических сайтов.
Согласен на 100%. Даже, сказал бы, для ОЧЕНЬ статичных сайтов. Либо сайтмап должен обновляться автоматически, даже не по крону, а одновременно с обновлением структуры сайта.

Сайтмап вообще зачастую больше вреда приносит, чем пользы. Если поисковик находит карту сайта, то после этого страницы сайта поисковик индексирует только те, что указаны в карте (соответственно она всегда должна быть актуальной), новые перестает находить, а если какие-то старые страницы удалены, перемещены (а в карте это не отражено) - поисковик ругается. Теряется динамичный подход поисковика к сайту.

Плюс такой момент - размер сайтмапа не должен превышать 200kb (в цифре могу ошибаться), а это не очень уж много для нормального сайта - пара тыщ страниц... Дальше начинаются проблемы с разделением сайтмапа на части...
В общем, поюзал я сайтмапы на своих сайтах и отказался от них.
ИМХО
17. M-A-X - 31 января 2011 — 14:06 - перейти к сообщению
BON пишет:
yura3d, понятно просто меня гугл "матом проет", из-за того что он нашел ссылки которые нет в сайтмапе, и что он дальше собирается сделать я хз.

Текст матов в студию.

igrok54 пишет:
Плюс такой момент - размер сайтмапа не должен превышать 200kb (в цифре могу ошибаться), а это не очень уж много для нормального сайта - пара тыщ страниц... Дальше начинаются проблемы с разделением сайтмапа на части...

Да, но разделение процесс не сложный и указываем генератору сайтмапа глубину просмотра чуть меньше, чтобы данные 5-тилетней давности не вносились в базу, плюч пользуемя генераторм, который понимает robots.txt, чтобы в карте не было мусора.

igrok54 пишет:
Если поисковик находит карту сайта, то после этого страницы сайта поисковик индексирует только те, что указаны в карте (соответственно она всегда должна быть актуальной), новые перестает находить, а если какие-то старые страницы удалены, перемещены (а в карте это не отражено) - поисковик ругается. Теряется динамичный подход поисковика к сайту.

Он и новые тоже индексирует. Улыбка

Карта сайта не помешает.
Но и без нее можно прожить. Улыбка

Пинг и РСС будут получше карты.
18. BON - 31 января 2011 — 17:34 - перейти к сообщению
M-A-X, вот:

Переход по URL не выполнен
При проверке нескольких URL из вашего файла Sitemap мы обнаружили, что некоторые URL перенаправляют на другие страницы. Мы советуем использовать в файле Sitemap URL-адреса, непосредственно указывающие на нужные страницы (цели перенаправления), а не перенаправляющие на другие URL

Ошибка HTTP: 302
URL:
http://www.habar.bsaa.info/topic...ostid=1288177061
Проблема обнаружена: 28.01.2011

На число не смотрите. Каждй раз когда робот заглядывает оно обновляется.
Уже большемесяца прошло а ни одной новой сслки в поисковике не обнаружилось.

igrok54 пишет:
Сайтмап вообще зачастую больше вреда приносит, чем пользы.

тут не соглашусь. С сайтмапой сайт или форум быстрее индексируется
19. M-A-X - 31 января 2011 — 18:48 - перейти к сообщению
BON пишет:
Переход по URL не выполнен
При проверке нескольких URL из вашего файла Sitemap мы обнаружили, что некоторые URL перенаправляют на другие страницы. Мы советуем использовать в файле Sitemap URL-адреса, непосредственно указывающие на нужные страницы (цели перенаправления), а не перенаправляющие на другие URL


Хм, Вам правильно советуют:
Цитата:
использовать в файле Sitemap URL-адреса, непосредственно указывающие на нужные страницы (цели перенаправления), а не перенаправляющие на другие URL


Варианты действий:
а) перегенерируйте сайтмеп
б) пользуйтесь нормальным генератором, который понимает robots.txt
в) Настройте этот самый robots.txt
г) используйте 301 редирект со старых страниц, а ссылки оставляйте только на новые
20. BON - 31 января 2011 — 19:02 - перейти к сообщению
M-A-X, та страница на которую ругается она единственная в своем роде и никуда не перенаправляет, т.к. там я делал описание БП (блок питания).

M-A-X пишет:
а) перегенерируйте сайтмеп

сделать это невозможно, т.к. генератор сайтмапы не хочет генерировать из-за того что урл начиается на www а гугл требует www.

M-A-X пишет:
б) пользуйтесь нормальным генератором, который понимает robots.txt

генератор нормальный

M-A-X пишет:
в) Настройте этот самый robots.txt

С фаилом robots.txt все впорядке:
User-agent: *
Disallow: /admin/
Disallow: /messages/
Disallow: /im/
Disallow: /data/
Disallow: /postings.php
Disallow: /messenger.php
Disallow: /loginout.php
Disallow: /post.php
Disallow: /rd.php
Disallow: /printpage.php
Disallow: /tools.php?action=members
Disallow: /tools.php?action=mail
21. Defenderyk - 2 февраля 2011 — 17:56 - перейти к сообщению
так что с регуляркой так и не вышло ничего, чтобы всегда с www работало и перекидывало на него?
22. BON - 2 февраля 2011 — 18:07 - перейти к сообщению
Defenderyk, сделайте через .htaccess чтобы с http на www перенаправляло и всё
23. Defenderyk - 2 февраля 2011 — 18:14 - перейти к сообщению
апач на серваке отключен

разве .htaccess работает без апача?
24. M-A-X - 4 февраля 2011 — 14:22 - перейти к сообщению
А что мешает прописать это в конфиге нгинкса?
25. BON - 4 февраля 2011 — 16:14 - перейти к сообщению
Defenderyk, если нет аппача то тогда что на IIS все висит висит?

Яндекс.Метрика   

Powered by ExBB
[Script Execution time: 0.0377]     [ ]