Noindex, follow

Автор Willers, 04 декабря 2016, 16:57:39

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Willers

Столкнулся с вопросом оптимизации форума.

Возникла необходимость выкинуть из индекса страницы пагинации топиков (по большому счету дубли)

Попросту необходимо добавить в код всех таких страниц метатег

<meta name="robots" content="noindex,follow" />

Есть какое то решение для такой задачи?


Willers

Ну во первых это не совсем так

Подозреваю что адекватного решения как бы нет.

Но тогда вопрос, если все таки запретить индексацию через роботс.

Как прописать Dissalow

с учетом того что нужно запретить страницы вида
/otchety/otchety-s-rybalki-osen-2016/30/

При том что разрешить страницы вида
/otchety/otchety-s-rybalki-osen-2016/




BoPoH

для начала видимо отключить "чпу"

Willers

Что это даст?

Ну будет стоять задача
оставить открытыми для индексации урлы вида
site.ru/index.php?topic=6926.0

и закрыть вида
site.ru/index.php?topic=6926.50
site.ru/index.php?topic=6926.150

и т.д.

Как это сделать мне все равно не ясно


Willers

Собственно изначально мне не понравилось то, что мод Оптимус добавляет в тайтл каждой темы страница {#}
То есть по факту мы имеем к примеру тему "Как ловить окуня зимой" с 12 страницами

И уже первая страница - допустим оптимизированная админом - имеет заголовок вида

Как ловить окуня зимой - страница 1
и так далее еще 11 страниц с практически идентичным заголовком.

Зачем? Не знаю - трафик они точно из поиска не приносят.

Да и добавление страница 1 для первой страницы вовсе не обязательно я считаю, но это тоже не исправить

Yarik

Цитата: Willers от 04 декабря 2016, 20:31:55Собственно изначально мне не понравилось то, что мод Оптимус добавляет в тайтл каждой темы
А удалить то что не нравится что добавляет в тайтл и просто оставить пустое поле не судьба видать?

Willers

Тогда мы автоматом получаем 12 страниц с одинаковым тайтлом  uglystupid  что тоже не есть хорошо

Yarik

Цитата: Willers от 04 декабря 2016, 21:32:29Тогда мы автоматом получаем 12 страниц с одинаковым тайтлом  uglystupid  что тоже не есть хорошо
С одинаковым это с каким?И какой тайтл нужен?

Willers

Ну я же пример привел

Как ловить окуня зимой
для первой страницы

и

Как ловить окуня зимой - страница #
для остальных

Yarik

Цитата: Willers от 04 декабря 2016, 21:41:54страница #
Удалить страница а?Полностью оставить поле пустым?
Там что напишите то и будет выводить.Поле пустым оставите - значит ничего не будет выводить.

Willers

Вот именно - если оставить пустым - то будут дубли тайтлов

Если заполнить, то добавляет страница # и для первой страницы темы

Yarik

Так а как тогда в поиске отличать где Как ловить окуня зимой какая страница?Или Вы хотите чтобы в поиске была выдача только тем,без страниц?Вот только зачем всё это,в чем профит?

Willers

#14
В данный момент я хотел бы чтобы первая страница темы не меняла название с изначальной

Как ловить окуня зимой

на

Как ловить окуня зимой - страница 1

когда в теме появляется больше одной страницы.

digger®

Цитата: Willers от 05 декабря 2016, 13:01:30В данный момент я хотел бы чтобы первая страница темы не меняла название с изначальной

Как ловить окуня зимой

на

Как ловить окуня зимой - страница 1

когда в теме появляется больше одной страницы.


В Subs-Optimus.php

найти
if (!empty($context['page_info']['current_page']) && $context['page_info']['num_pages'] != 1)заменить на
if (!empty($context['page_info']['current_page']) && $context['page_info']['num_pages'] != 1 && $context['page_info']['current_page'] != 1)

Willers

Огромное спасибо.
Все работает!

Willers

Вообще гуглу - исключительно похрену на всякие там диррективы в роботсе.

А вот если реализовать добавление в код нужных для исключения страниц
<meta name="robots" content="noindex,follow" />То все будет правильно и в соответствии с требованиями самого гугла.

А так получаем кучу мусорных страниц в индексе

Пример
https://www.simplemachines.ru/index.php?action=profile;u=20030

google

Хотя в роботсе она закрыта

Вот такая петрушка


GeorG

Цитата: Willers от 09 декабря 2016, 01:52:06А так получаем кучу мусорных страниц в индексе

Пример
https://www.simplemachines.ru/index.php?action=profile;u=20030

google

Хотя в роботсе она закрыта
Проверил свой форум на мусорные страницы (взял те же профили), есть только от галереи, и та закрыта.

Вам недоступны вложения в этом разделе.

Верстка тем по шаблону, их доработка/переработка, переделка тем с версии smf 1.1 на smf 2.0. Примеры работ - insidestyle.ru
Установка модов (заточка под ваш форум); Моды под заказ; Обновление форума; Правильный перенос; Удаление/лечение вирусов; Устранения ошибок.
Обращаться в ЛС
Мой форум
Модуль анти-спама CleanTalk, сам пользуюсь
Сервера которыми сам пользуюсь - cadedic.ru