При поддержке: Биржа SeoBulls.ru — вечные трастовые ссылки со всего мира за минимальную цену!
Всем привет! Публикую 21-й выпуск вопросов читателей и моих ответов на них. Будут разобраны реально существующие задачи и проблемы подписчиков. С некоторыми из них вы, вероятно, уже сталкивались. Некоторые — будут полезны в будущем, возьмите на заметку. В этом выпуске 10 вопросов в сферах внутренней оптимизации страниц, заработка на контекстной рекламе, индексации, посещаемости с поисковых систем и так далее. Приятного чтения =) .
- Оправдано ли использование большого меню категорий с ключевыми словами?
- Как избавиться от нескольких сотен ненужных страниц в индексе Яндекса?
- Будет ли правильно создавать на один регион 2 сайта одной фирмы, но с разными языками?
- Что делать с карточками товаров, имеющие неуникальный контент?
- Хочу сделать сайт по google adsense. Есть вопросы.
- Каким VPS сейчас ты пользуешься?
- Купить сайт с доходом или создать его самому?
- Скопированный контент проиндексировался быстрее. Кто будет считаться плагиатом?
- Можно ли использовать ключевое слово в каждом подзаголовке статьи?
- Не навредит ли рандомный вывод последних 10 статей на главной?
1. Скажите, а оправданно ли, когда все ключевые слова расположены на главной странице со ссылкой на соответствующие разделы сайта?
Много раз такое видел, прямо на главной внизу куча ссылок формата “регипс”, “осб”, “профиля для регипса” и т.д.
На самом деле, данное дублирующее меню категорий расположено не только на главной. Оно является сквозным. На мой взгляд, очень сомнительный элемент ресурса:
- Находится в самом низу. Скорее всего, у посетителей имеет небольшой интерес.
- Содержание одних только ключевых слов. Чревато переоптимизацией.
- Дублирует основное меню категорий.
- Дублирует страницы по разным адресам.
- Забирает вес, передаваемый на другие внутренние ссылки.
- Огромный кусок дополнительного кода. Здесь же скорость загрузки.
В общем, я бы не советовал такое реализовывать. Более эффективным методом является создание системы меток или тегов по характеристикам (например, цвет, размер, предназначение и так далее) и расположение ссылок на данные страницы только в тематических разделах (то есть без использования сквозняка).
Вверх к вопросам
2. Как избавиться от страниц, которые Яндекс проиндексировал, а потом поместил в исключенные (при том, что ты не хотел бы, чтобы они там были)? У меня таких сейчас более 600 по данным Я.Вебмастера.
- Удалял карточки товаров. Пока не узнал, что лучше писать «товар временно отсутствует» и предлагать посмотреть другой.
- Редактировал урлы. Оптимизировал карточки, прописывал ЧПУ.
- Какие-то плохие люди нашли дырку в моем проекте и пихнули несколько десятков дорвеев на тему похудения. Загнали их твиттером в индекс, и теперь они там висят, уже месяцев 8, несмотря на то, что страницы я довольно быстро нашел и прибил.
Итак, имеем неприятную картину — более 600 исключенных документов. Яндекс их не убирает, хотя при переходе на них сайт отдает ошибку 404. Как их убрать из индекса не понятно? Через форму в вебмастере слишком долго. Такая дилемма.
- Восстановить подобные страницы, если есть такая возможность и на них был трафик. Предлагать на них похожие товары.
- Здесь необходим 301-редирект со старых URL на аналогичные новые.
- Яндекс относительно “долгий”. Данные он обновляет намного дольше, чем, например, google. Если страниц нет, и они отдают 404 ошибку, то со временем (1-2 месяца), они сами должны полностью удалиться из поисковой базы. Если этого не происходит, а вручную удалять долго, то есть смысл написать в службу поддержки по этому вопросу.
Вверх к вопросам
3. Будет ли правильно создавать на один регион 2 сайта одной фирмы, но с разными языками? По сути, аудитория разная, и не должно быть проблем, так думаю.
Я сторонник одного проекта для одной компании. Если фирма одна, и она занимается одним и тем же на разных языках, то есть смысл основной домен сделать с основным языком, а, например, поддомен с дополнительным. Для того, чтобы поддомен воспринимался иностранцами “корректно”, основное доменное имя лучше зарегистрировать в какой-нибудь международной зоне, например, .com.
В качестве другого варианта можно выбрать мультиязычность. Главное, чтобы у страницы с разными языками были разные адреса. Это поможет поисковым системам правильно индексировать разные версии.
Можно, конечно, создать и 2 отдельных ресурса. Проблем не должно возникнуть. Но один проект продвигать легче, чем два .
Вверх к вопросам
4. Пришел на продвижение сайт агентства недвижимости Болгарии с большим количеством копипаста в карточках объектов. Страница не находится даже по низкочастотным и низкоконкурентным запросам.
Скажи, как лучше поступить – переписать все описания всех карточек или закрыть их от индексации? Что сделать лучше для того, чтобы сайт себя лучше чувствовал в выдаче?
Понятно, что посетителей данные страницы получат очень мало, вопрос в том, как не навредить продвижению по основным трафиковым запросам таким большим количеством дублированного контента?
На мой взгляд, если закрыть карточки от индексации лучше не будет: пропадет масштаб проекта и, собственно, сам “товар” из поисковой выдачи. Лучше переписать неуникальный контент, но делать это не сразу, а постепенно, следя за динамикой.
Можно также поставить эксперимент на 10-20 страницах. Переписать на них текст и отследить позиции “до” и “после”. В случае положительных результатов применять методы на другие карточки.
Вверх к вопросам
5. Хочу сделать сайт под google adsense, но не знаю, какую тематику выбрать. Так вот, стоит ли вообще делать его, если я не смогу поднять посещаемость выше 100-200 хостов в сутки? Прибыль с такого ресурса будет где-то $0,5 в сутки? Или того менее?
Сколько страниц должно быть на сайте? Примерно. Если там 10-20 это нормально будет или очень сложно в продвижении?
По таким данным сложно что-то сказать. Если создать ресурс за 1-2 дня, и он будет приносить по 0,5$ в сутки пассивно, то почему бы и нет. Для 100-200 хостов, например, в финансовой тематике (высокая конкуренция) можно зарабатывать больше 0,5$ в сутки.
По объему нельзя сказать даже и примерно. Можно создать сайт из 100 страниц низкосортного контента и получать 50-100 посещений в сутки, а можно опубликовать 10-20 статей и получать на них по 500 человек в сутки.
Небольшой объем проекта в узкой тематике с низкой конкуренцией не проблема. В более широкой нише “маленьким” продвинуться может быть сложнее.
Вверх к вопросам
6. Не подскажите, каким VPS вы сейчас пользуетесь? Какой тариф, цены, качество технической поддержки? Платите в рублях или в другой валюте? Задумался о переходе в связи с ростом евро. Мой провайдер оплачивается именно этой валютой.
Сейчас основные проекты я держу на fozzy (linux VPS). Цены в рублях. Из-за кризиса не поднимались. Техническая поддержка оставляет только положительные впечатления. Fozzy также является партнером этого блога и форума Masterwebs.ru.
Дополнительно есть еще VPS на fastvps. Здесь к качеству хостинга и службе поддержки тоже претензий нет, но цены в евро. Соответственно, сейчас приходится платить немного больше из-за изменения курса рубля.
Вверх к вопросам
7. Меня зовут Антон. Давно и с интересом слежу за вашим блогом. Сам тоже работаю в интернет-сфере, но пока все больше “на дядю”. Собственными проектами занялся недавно и пока не очень доволен заработками, которые они приносят.
В этой связи я решил пойти от обратного, и купить сайт с доходом. Однако, биржа telderi, куда я сразу направился, предложениями не порадовала. Поэтому хочу обратиться за советом к вам.
Буду очень благодарен, если подскажите, стоит ли покупать уже готовый сайт? Интересуют хорошие СДЛ с пассивным доходом от 30 тысяч рублей в месяц. На покупку готов выделить от 300 до 500 тысяч в зависимости от потенциала и доходности проекта. Как считаете, реально ли найти такие варианты? И где их лучше искать?
На публичных аукционах мне редко попадались достойные проекты за адекватную стоимость. Если же таковые попадаются, то спрос на них настолько велик, что дешевле будет разработать подобный сайт самому. Это я сужу по своим наблюдениям. Может быть, у кого-то получается покупать доходные ресурсы по адекватной цене .
Если Вы заняты в сфере интернет-проектов и знаете, как разработать качественный сайт, то одним из разумных вариантов будет создание его с нуля. Уверен, что при грамотном подходе, правильном выборе ниши и при вложениях 300-500 тысяч, можно смело зарабатывать от 30 тысяч в месяц . Здесь, конечно, имеются свои плюсы и минусы. Преимущества разработки относительно покупки:
- Достигнутая посещаемость при белом способе развития ресурса резко не пропадет.
- Вы будете создавать все так, как хотите. Переделывать другие проекты бывает не просто (например, исчезновение программиста, который создавал сайт на собственной CMS).
- Возможно, это будет дешевле.
- Нет рисков, связанных с передачей прав на владение ресурсом/доменом.
Недостатки:
- Риски не достигнуть поставленных результатов.
- Необходимо искать исполнителей (копирайтеров, дизайнеров, программистов и так далее).
- Возврат инвестиций только спустя некоторое время. Готовый работающий проект возвращает вложенное уже с первых дней.
В общем, необходимо выбирать, что на данный момент более приоритетнее и интересней.
Вверх к вопросам
8. Вот был вопрос про плагиат, и там всё понятно. Мы пришли к выводу, что полное копирование содержания статьи ведёт к тому, что поисковиком она обозначается как плагиат. Мой вопрос заключается в том, как формируется у поисковой системы мнение о том, кто истинный автор материала?
Предположим, я веду блог о заброшенных блогах. Страницы, которые не индексируются на данный момент. Я публикую полностью “статью”. Она индексируется. Пока материал автора не в индексе — моя статья не плагиат. Тогда если страница первоисточника проиндексируется более поздней датой, она будет считаться плагиатом? Или робот просматривает дату создания документа, а не дату индексации, и уже отталкиваясь от этого, решает кто первоисточник?
И ещё. Нет ли такой ситуации, что более авторитетные ресурсы в приоритете в борьбе за авторство?
На мой взгляд, основным фактором является именно индексация: чей материал был проиндексирован ранее, тот и первоисточник. Но это при прочих равных условиях. Сейчас есть и “оригинальные тексты” в Яндексе, и подтверждение авторства в гугле. Дополнительно влияние ссылочного ранжирования. Дату публикации статьи можно подделать, поэтому вряд ли эту информацию поисковые системы берут в расчет.
Да, бывает и такое, что авторитетные ресурсы считаются первоисточниками, опубликовав копированный контент. Крупный проект с быстрой индексацией копирует информацию с более мелкого с менее быстрым попаданием в поисковую выдачу и не ставит ссылки. В таком случае, если автор более мелкого сайта заранее не позаботился об этом (“оригинальные тексты”, авторство в гугле, ссылки с других ресурсов), то с большой долей вероятности можно говорить о том, что его материал будет расцениваться как плагиат. Иначе, как поисковой системе понять обратное ?
Вверх к вопросам
9. Допустимо ли использовать одинаковые ключевые слова в подзаголовках статьи? Например, если материал с ключом “как выбрать автомобиль” и далее внутри несколько подзаголовков:
- как выбрать автомобиль, если денег совсем мало;
- как выбрать автомобиль для девушки;
- как выбрать автомобиль б/у;
И так далее. Не будет ли это в “глазах” поисковых роботов переоптимизацией? Читатель из заголовка и так поймет что статья о автомобилях. Вижу такие примеры постоянно, но сам не использую.
Высокая доля вероятности, что может быть переоптимизация. Лучше такое не практиковать. Особенно для молодого ресурса, у которого еще не появилось доверия со стороны поисковых систем. Первый подзаголовок можно оставить таким как есть. Второй и третий нужно изменить: “А что подойдет для девушки?”, “Выбор б/у автомобиля”.
Вверх к вопросам
10. Не навредит ли рандомный вывод последних 10 статей на главной? То есть если при обновлении (клавишей F5) список постов будет постоянно меняться. В теории это должно дать равное распределение веса.
Я не сторонник постоянного изменения контента при обновлении документа. Данный вариант также считаю сомнительным. Если бы поисковая система очень часто обращалась к главной и не перезаписывала веса внутренних страниц, а накладывала их друг на друга, то могло бы получиться равное распределение. В реальности же, роботы не так часто обращаются к странице и не накладывают друг на друга “весовые данные”.
Вверх к вопросам
Вот и все на сегодня. Если у вас есть свой взгляд на тот или иной пункт, то с радостью подискутирую с вами в комментариях. Жду ваши отзывы !
Статьи по теме:
0 comments:
Post a Comment