Добрый день парни, у меня возникли две проблемы!
Первая состоит в том, что что хочется сделать
человекообразные URL адреса в пагинации.
Вторая — избавиться от дублей страниц вот с таким окончанием
?start=10.
1) У меня есть новостная страница
taxi-simferopol.ru/goroda-crimea (она рассчитана на 12 новостей)
taxi-simferopol.ru/taxi-aeroport-simferopol
taxi-simferopol.ru/taxi-simferopol-sevastopol
taxi-simferopol.ru/taxi-simferopol-yalta
taxi-simferopol.ru/taxi-simferopol-alushta
taxi-simferopol.ru/taxi-simferopol-kerch
taxi-simferopol.ru/taxi-simferopol-feodosiya
taxi-simferopol.ru/taxi-simferopol-sudak
taxi-simferopol.ru/taxi-simferopol-koktebel
taxi-simferopol.ru/taxi-simferopol-evpatoriya
taxi-simferopol.ru/taxi-simferopol-gurzuf
taxi-simferopol.ru/taxi-simferopol-gaspra
taxi-simferopol.ru/taxi-simferopol-mishor
когда публикуешь 13 новость появится вторая страница пагинации вот с таким URL адресом
taxi-simferopol.ru/goroda-crimea?start=12 — то есть прибавляется к моему URL адресу приставка
?start=12.
Очень бы хотелось заменить эту приставку
?start=12 например на page1 и так далее, а поскольку в robots.txt у меня прописано следующее, вторая страница пагинации не будет индексироваться
(а индексация этой страницы обязательно нужна)!
User-agent: *
Disallow: /assets/cache/
Disallow: /assets/docs/
Disallow: /assets/export/
Disallow: /assets/import/
Disallow: /assets/modules/
Disallow: /assets/plugins/
Disallow: /assets/snippets/
Disallow: /install/
Disallow: /manager/
Disallow: /?
Disallow: /*?
Disallow: /index.php
Host: taxi-simferopol.ru
Sitemap: taxi-simferopol.ru/sitemap.xml
2) Хотелось бы избавиться от дублей страниц. Если к любому URL адресу моих страниц добавить приставку
?start=12 (например к этому
taxi-simferopol.ru/taxi-simferopol-sevastopol добавить приставку
?start=12 или
?start=10), то эта страница будет доступна по адресу
taxi-simferopol.ru/taxi-simferopol-sevastopol?start=12 или
taxi-simferopol.ru/taxi-simferopol-sevastopol?start=10, хотя необходимо что-бы этот URL адрес в идеале отдавал 404 ошибку!
В robots.txt этот параметр
Disallow: /? для URL адресов закрыт, но в этом случае не индексируться вторая страница пагинации
taxi-simferopol.ru/goroda-crimea?start=12. А если я его открою получатся разрешу индексировать дубли страниц с окончанием
?start=12,
?start=10 и так далее.
Как решить эти проблемы, может кто сталкивался?
[ed. note: imperiya last edited this post 7 years, 3 months ago.]