Покарання Google за переоптимізацію - «клінічна смерть» SEO?
Рейтинг статті: / 2
НайгіршеНайкраще 
Покарання від Google за "переоптимізацію"Після заяви Google про введення покарання за зайву оптимізацію, виникло відчуття того, що інтернет-гігант досяг у своєму розвитку моменту, коли йому не залишилось нічого іншого, як «удосконалювати» якість пошуку за допомогою системи покарань і фільтрів.
До яких же наслідків може призвести подібна поведінка найбільшого в світі гравця пошукового ринку? Розглянемо докладніше:
Що Google вважає пошуковим спамом?
У 1999 р співзасновник Google Сергій Брін урочисто запевнив нас в тому, що ніякого пошукового спаму не існує: «Google трохи відрізняється від інших пошукових систем тим, що ми ніколи нікого не баним. Ми ніколи не вірили в спам, як у механізм витіснення будь-кого з нашого індексу. Усім Вам відомий фундаментальний принцип, який ми використовуємо: релевантність сторінки по відношенню до пошукового запиту. І Вам добре відомо про існування таких сторінок, поява яких в індексі вкрай малоймовірна, просто тому, що вони нерелевантні».
Сьогодні Google підготував цілий розділ, в якому роз'яснює своє розуміння спаму. Кожен пункт, згаданий у ньому, подібний виправленню цієї проблеми, покликаної «заткнути» черговий пролом в алгоритмі ранжирування.
Деякі аспекти боротьби Google з пошуковим спамом зачіпають питання розробки ресурсу: так, наприклад, всім нам відомо, що «прихований текст» на веб сторінках - це погано, тому що з його допомогою веб-майстри можуть невиправдано високо підняти позиції своїх сторінок в пошуковій видачі.
На жаль, протягом багатьох років Google зосередила свою увагу на технічних деталях, абсолютно не намагаючись вибудовувати діалог з веб-майстрами. Так, наприклад, якщо вебмастер створив сторінку, наповнену зображеннями, і додав підпис з картинок в прихований текст - це може і не означати, що він «використовує заборонені прийоми». Просто розробник сайту хотів допомогти пошуковим машинам краще проіндексувати зображення. Однак дуже ймовірно, що подібний сайт буде забанений Google, навіть незважаючи на те, що власник ресурсу не прагнув потрапити в пошукову видачу, використовуючи не улюблені Google методи «зі злим умислом».
Також ряд обмежень Google стосується покупки і продажу посилань. Така поведінка вебмайстрів пошуковик розглядає як «підтасовування результатів». Пошуковик хоче ліквідувати будь-яку можливість впливу оптимізаторів на видачу за допомогою грошей.
Однак і тут часто виникають спірні моменти: так, наприклад, якщо видавець напише огляд продукту, який був подарований йому в якості подяки за публікацію, то залишене посилання, згідно правилам Google, цілком може вважатися «купленим». Далі виникає питання: якщо посилання потрапляє в цю категорію, чи варто блокувати всі посилання, що ведуть з даного сайту на ресурс, який продає, або тільки те, яка залишена на даній конкретній сторінці? І що думає Google з приводу партнерських посилань?
Зазначимо, що свого часу представники Google заявляли, що алгоритми пошукача навчилися відловлювати і знижувати значення партнерських посилань в основних програмах, таких, наприклад, як Amazon. Однак не практиці він не робить того ж щодо низки інших аналогічних посилань.
Як же визначити, які посилання залишаються безпечними з точки зору їх розміщення на ресурсі?
«Недостатньо хороший» з точки зору Google
В даний час ситуація ускладнилася ще більше: Google може «покарати» не лише відверто «поганий» ресурс, але і «недостатньо хороший».
Вельми показовим прикладом цьому є минулорічне оновлення фільтра Panda, коли сторінки, що знаходилися на верхніх позиціях видачі протягом тривалого часу, раптом зникли з видачі. Метаморфоза легко пояснювалася тим, що Google почав використовувати нову систему прийняття рішень про те «хороший» чи «поганий» контент опублікував видавець на своєму ресурсі.
Що ж слід розуміти під формулюванням «низька якість сайту»? Інтернет-гігант підготував список з 23 питань, покликаний допомогти контролювати якість контенту, але в більшості випадків відповідь полягав у тому, що «Google розцінює даний ресурс як низькоякісний, тому що він так бачить його».
Цю проблему можна було б з легкістю вирішити лише в тому випадку, якщо б у видавців була можливість поглянути на свої сайти очима Google. Але, на жаль, вони позбавлені її. Є тільки набір припущень і питань оптимізаторів, до яких додалося ще одне: «А не переоптимізірован мій сайт?».
Занадто багато SEO
Об'єктивно сьогодні не існує фактора, який би гарантував високий рейтинг сайту в пошукових системах. Без сумніву, в кожному пошуковому запиті Google спирається на безліч критеріїв, намагаючись добитися прийнятного результату. Одні з цих критеріїв значать більше, інші - менше, але передбачається, що вони впливають на ранжування в сукупності.
Дійсно, така комбінація критеріїв захищає пошукову систему від помилок. Що буде, якщо хтось купить величезну кількість посилань з метою довести протилежне? Зазвичай Google не піддається на подібні трюки. Враховуючи комплекс критеріїв, він зберігає релевантність пошукової видачі.
Але тепер, уявімо, що знайшлися люди, які використовують комбінацію тих методів, які сам Google порадив використовувати в підготовленому ним керівництві. Наслідки цього можуть бути не найприємнішими. Менше місяця тому Метт Каттс (Matt Cutts) заявив: «Ми трохи ускладнили правила гри для людей, які воліють займатися «переоптимізацією» замість того, щоб просто створювати хороший контент і намагатися представити відвідувачам чудовий сайт».
Що ж таке «переоптимізація», і сукупність яких чинників вкаже нам на неї? Певної відповіді на дане питання поки не існує. Чи не краще тоді взагалі відмовитися від SEO?
При такому підході можна легко впасти в паніку, і визнати пана Каттса противником пошукової оптимізації. Однак якщо вдуматися у слова головного інженера Google, то складається враження, що пошуковик просто-напросто хоче «покарати» сайти за надмірно спамний контент, не торкнувшись при цьому тих, хто використовує методи SEO, які рекомендують представники Google: «Ми навчилися виявляти тих, хто зловживає спамний методами, розміщуючи на сторінках своїх ресурсів занадто багато ключових слів, обмінюючись занадто великою кількістю посилань, або роблять щось інше, що виходить за рамки того, що можна було б очікувати від людини, що створює звичайний тематичний сайт».
Виходячи з цього, можна прийти до висновку, що «перебір» відразу по декількох напрямках може привести ресурс до сумних наслідків. Однак при ізольованому використанні інструментів SEO результат буде позитивним.
Чому окремі прийоми SEO прирівняли до пошукового спаму?
Введення Google «нової системи штрафів» викликав масу дискусій на тему того, що ж взагалі мається на увазі під SEO? До недавнього часу Google діяв дуже акуратно і не ставив знака рівності між SEO та спамом. Ці поняття розрізнялися між собою також як e-mail маркетинг і поштовий спам. Проте розмови про «переоптимізацію», буквально, стерли межу між цими поняттями.
Метт Каттс каже, що майбутні зміни «трохи ускладнюють правила гри». Але в цій грі немає правил. Деякі чудові сайти прекрасно себе почувають без явного використання SEO. Інші ж зникли з пошукової видачі, тому що вони не змогли слідувати «кращій практиці пошукової оптимізації». Важливо відзначити, що обидві ситуації справедливі і для низькоякісних сайтів.
Ігри з PageRank
Побоювання Денні Саллівана полягають у тому, що, згадуючи про «переоптимізацію», Google намагається заспокоїти натовп ненависників SEO, які пояснюють будь-які невдачі в просуванні сайту тим, що система ранжирування пошукача має серйозні проблеми.
Деякий час тому користувачі прийшли в обурення від великої кількості спаму, що з'явився в коментарях? Багато звинуватили Google в тому, що його експерименти з PageRank привели до виникнення цього явища. У 2005 році власникам блогів розповіли про атрибут nofollow, як про спосіб запобігання передачі ваги за посиланням. Проте вирішити цю проблему досі не вдалося - вона залишається способом маніпулювання видачею Google і головним болем для ряду власників сайтів.
Після того, як зловживання контентом, купленим на біржах, викликало загальне обурення користувачів, Google подарував їм черговий апдейт фільтра Panda, який торкнувся 12% пошукових запитів. Можна подумати, що тепер біржі контента «канули в лету», а якість пошуку покращилася на 12%. Насправді ж, ніхто не може з певністю сказати, покращилася ситуація після введення Panda, чи навпаки, погіршилася. Ми не маємо жодних можливостей для проведення такої оцінки.
Люди як і раніше лають якість пошуку. Тепер вони скаржаться, що ситуацію погіршує плагін «+1». Чи вдасться заспокоїти їх після введення штрафів за переоптимізацію? Немає жодних сумнівів у тому, що запуск оновленого алгоритму змінить видачу за певним відсотком запитів. Знову створиться враження того, що ситуація змінилася на краще.
А що в підсумку?
Розглянемо, як йдуть справи насправді: якщо ввести в рядок пошуку Google запит "SEO», то сьогодні, як і раніше, в першій десятці знайдуться компанії, які піднялися сюди завдяки посиланнями з шаблонів блогів, підвалів клієнтських сайтів або з форумів.
У січні 2010 року Денні Салліван розповів про це команді Google, у чиїй компетенції - підтримка високої якості пошуку. У жовтні того ж року він торкався дану тему в публікації «Як «орієнтація на свіжість» допомагає Google приховувати проблеми релевантності видачі» (How The "Focus On First" Helps Hide Google's Relevancy Problems). Однак реакції Google на це не було.
У статті наводяться елементарні речі, які Google може легко виявити і виправити, тим самим підвищивши ефективність власної роботи. Якщо ж Google не звертає уваги на ті запити, в яких він просто зобов'язаний підтримувати ідеальний порядок, наприклад запит [SEO], то чи є у нас підстави вважати, що ситуація зміниться на краще, після введення чергових штрафних санкцій.
Ігнорування таких елементарних помилок не є чимось несподіваним. Кожного місяця з'являються нові статті, пов'язані з проблемою пошукового спаму. Наприклад: «Як «сміття» потрапляє в ТОП видачі: незалежне розслідування».
У 2010 році була опублікована історія Джілла Уелена під заголовком: «Дорогий Google ... Перестань робити з мене ідіота!». У тому ж році Ренд Фішкін (Rand Fishkin) описав, як використовувати спам в цілях оптимізації, але попередив про те, що не варто спокушатися простотою даного методу.
Вчора основну увагу необхідно було приділяти якості контенту, вдосконаленню юзабіліті і використовувати лише допустимі прийоми SEO-оптимізації. При цьому недоліки Google не повинні використовуватися оптимізаторами для виправдання власних недоробок і зловживань. Нам не потрібні штрафи і покарання. Ми хочемо, щоб Google і Bing (який має аналогічні проблеми) знайшли спосіб заохочувати хороші сторінки і пессимізувати погані.
Також можна погодитися з позицією Google, що передбачає покарання тих сторінок, верхня частина яких перевантажена рекламою. Особливо враховуючи те, що вони продовжують «захаращувати» пошукову видачу. І, можливо, перед тим як запровадити нові штрафи, Google виправить ті недоліки, які йому вже добре відомі. Можливо, пошукачеві варто подумати про те, яка плутанина виникне від змішування понять «SEO» і «спам», через розмови про «переоптимізацію». Сьогодні, як ніколи, назріла необхідність фундаментального вдосконалення алгоритму ранжирування, замість звичайного «латання дірок».
Кнопка «+1» привнесла в пошукову видачу певні зміни, і є саме тим типом фундаментальних змін, яких всі так чекають від Google. Залишається лише сподіватися на те, що Google, і Bing знайдуть правильне поєднання персональних і соціальних сигналів.
Примітка редакції searchengines.ru: в свою чергу відзначимо, що Західні аналітики ринку охрестили останні прийоми Google не інакше, як «стрибком через акулу». Тим самим вони мають на увазі, що інтернет-гігант уже вичерпав всі розумні ідеї з якісного поліпшення власної пошукової видачі і перейшов до радикальних методів.
Що ж стосується російської пошукової дійсності, то питання, які останнім часом оптимізатори задають представникам Яндекса також багато в чому стосуються саме фільтрів і покарань. Так, наприклад, на круглому столі «Яндекс і SEO» найчастіше звучали такі висловлювання оптимізаторів: «Коли з'являться нормальні правила і рекомендації про те, що таке якісний сайт (СДЛ)?», «Чому блогери або вебмастера повинні бути спецами і робити свої сайти такими, як хоче Яндекс? »,« Що відбувається останнім часом (трохи менше року) з індексацією багатосторінкових сайтів (від 200 сторінок)? На переважній більшості нових якісних (!) Сайтів індекс просто жахливий!» І т.п.
Велика кількість подібних питань до представників пошуку наводить на думку, чи не готується і Яндекс, подібно Google, зробити свій «стрибок через акулу» ...
Переклад статті Денні Салліван (Danny Sullivan), головного редактора Marketing Land і Search Engine Land, який є загальновизнаним авторитетом у питаннях пошукового маркетингу та інтернет-маркетингу. В SEO з 1995 року.
(Джерело RU: searchengines.ru)
 
>
КнигаНовиниПрактика пошукуПартнериПро нас
Підтримка та дизайн: Могильний С.С. Шаблон: Joomla Templates by BuyHTTP Joomla Hosting