fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Анатомія пошукової машини

Алгоритми пошукових машин постійно змінюються, як, наприклад, антивірусне програмне забезпечення. Адже у світі постійно з’являються нові віруси, тому вони і повинні постійно удосконалювати і вносити корективи у свої програми. Аналогічно йде справа і з пошукачами: все в цьому світі швидко змінюється, а інтернет-сфера ще швидше.
Тим не менш, існує певний набір правил, за якими пошуковці ранжирують сайти, яких повинен дотримуватися кожен вебмайстер в нелегкому процесі пошукової оптимізації. Звичайно, немає 100% гарантії, що все це працює зараз, або вже з’явилися нові правила гри, але ідея залишається незмінною. Змінюються лише деталі, як говориться.
Але якщо ми не можемо застосувати для оптимізації стандартний набір правил, то що ж нам робити? Вихід тут у тому, що не потрібно всіма силами намагатися розібратися в хитрощі роботи пошукової машини, а просто зрозуміти яким чином вони працюють. У цих хитрощів є своя логіка роботи, яку досить просто обчислити, що і є їх недоліком.
Так що ж насправді потрібно?
Для досягнення високих позицій в рейтингу (так ще на довгий час) слід розуміти, що пошуковий робот – це в своєму роді жива істота. Звичайно, я при цьому не маю на увазі, що у них є розум, нехай це залишиться для письменників-фантастів. Тим не менше їх поведінку і способи роботи багато в чому схожі на роботу цього самого мозку.
А тепер зупинимося на розгляді деяких функцій їх “мозку”. В загальному можна сказати, що їм притаманна така специфіка, як (якщо прийняти інтернет за мир з безліччю доріг) ходити різними шляхами, слідуючи вказівкам встановлених знаків і збираючи всіляку інформація про цій дорозі. Потім вони направляють зібрану інформацію групі серверів, які вже за своїм специфічним алгоритмам визначають її важливість для внесення в свої бази.
За якими принципами працюють ці алгоритми? Для початку вони створюються людьми, які чудово розбираються в принципах роботи інтернету та інформації, яка в ньому міститься. А так як всесвітня павутина постійно змінюється, то ці самі люди і вносять необхідні корективи в пошукові алгоритми. По своїй суті пошукову машину слід розглядати, як істота, що постійно збирає інформацію, зберігає її, а потім сортує виходячи з важливості і з великим задоволенням відсіює непотрібні. Тільки от як це вона робить і виходячи з яких принципів – толком не ясно.
Придивимося ближче
Розуміння того, що з себе представляє пошукова машина насправді, спробуємо з’ясувати в порівнянні з анатомією людини. Нехай машина і не дихає, але вона містить багато схожого, що необхідно їй для її віртуальному житті. А складається вона з наступного:
Легкі: Даний орган у пошукової машини, як і більшість життєво важливих органів, розташовані всередині величезних data-центрів (сервера, спеціально призначені для зберігання інформації). Як і організмі людини, легкі ми не вважаємо дуже важливим органом, тим не менш розуміємо, що без них не обійтися і потрібно підтримувати їх здоровими.
Руки і ноги: Уявімо собі, що руки і ноги пошукової машини не що інше, як посилання на ресурси, які вона щедро видає за запитом користувача. За допомогою цього органу ми можемо знайти все, що нам потрібно і отримати покажчик у вигляді посилання на необхідний ресурс. Також, як і тіло людини спочатку було створено для руху і дослідження навколишнього світу, аналогічно і пошукові машини спочатку запрограмовані дослідити всесвітню павутину.
Очі: Очима пошукової машини є так звані павуки (ще їх називають роботами чи краулерами). Ці самі павуки постійно переглядають інтернет для пошуку нових сайтів і стежать за змінами на вже проіндексованих. В даному випадку павуки “повзають” по сторінках сайту по його внутрішнім посиланням (як по шляхах), аналогічно людині, яка на своєму шляху бачить безліч доріг для свого пересування. На щастя для нас, пошукові роботи рухаються по оптико-волоконним проводах, ось тому вони можуть подорожувати по інтернету зі швидкістю світла. Це-то і дозволяє їм відвідати всі інтернет-сторінки, які трапляються їм на шляху.
Мозок: Мозок пошукової машини виконує ті ж функції, що і мозок людини: містить цілий набір функцій для управління організмом свого господаря. Також у мозку повинен бути свій інстинкт, який повинен знати про роботу та постійно контролювати всі органи і системи. Ось тому пошуковій машині ніяк не обійтися без цього самого мозку, який їй і допомагає вижити в цьому ворожому світі (нехай в чомусь і віртуальному).
Інстинкт: За допомогою інстинкту пошукові машини мають набір ключових функцій, таких як переглядання сайтів і фільтрація даних, які потрібно або не потрібно індексувати. Вони запрограмовані ігнорувати деякі типи файлів, які не відповідають певним критеріям. Як мені здається, в інстинкті пошукової машини головне – це механізм або алгоритм, за допомогою якого вона індексує сайти.
Знання: Пошукові машини чудово обізнані про всі тонкощі індексації сайтів. Ті знання, якими вони володіють, йдуть далеко попереду знань всіх користувачів, вебмайстрів і оптимізаторів. Пошукова машина знає безліч методів сортування, представлення даних, і, природно, ще й має свій специфічний набір хитрощів і вивертів.
Поки пошуковий робот подорожує по інтернету і індексує веб-сторінки, паралельно він відсилає назад у свій data-центр зібрані ним дані. Саме в цьому центрі дані обробляються відповідно до алгоритмів, а спам-фільтри відсівають непотрібне.
Подібно до того, як ми аналізуємо інформацію зі статті в газеті відповідно до свого бачення світу, так і пошукові системи обробляє і ранжирують дані в строгій відповідності зі своїми законами і розумінням роботи інтернету.
Вивчення: Так як пошукова машина ранжує веб-сторінки відповідно до свого бачення і розуміння законів функціонування інтернету, а ці правила постійно змінюються, то пошукові алгоритми постійно змінюються. Ось тут-то якраз і потрібен механізм адаптації або самонавчання пошуковика.
У той же час, поряд у здатності переглядати сторінки, пошукові роботи повинні вміти визначати і карати спроби забороненої розкрутки сайту. При цьому прихильно ставиться до чесних вебмайстрам та оптимізаторам.
Ось приклади тих областей, в яких пошукові машини так часто люблять міняти свої алгоритми:
Визначення релевантності контенту того сайту, на який вона знайшла посилання;
Здатність виявляти інформацію, яка міститься в нових типах даних, наприклад, бази даних, flash і т. п.
Розуміння нечесних методів розкрутки сайтів, таких як розміщення “невидимого” тексту, посилань і т. п. Дані технології розглядаються пошуковою машиною як спам, а спіймані на цьому ресурси потрапляють у так званий “чорний список”;
Вивчення отриманих даних, виявлення недоліків у індексації, що приводить в дію механізм зміни алгоритму в бік більш ефективного визначення релевантності сайту.
Здатність до вивчення та адаптації до навколишнього інтернет-простору спочатку закладається при розробці алгоритмів роботи пошукової машини. Ну і, само собою, залишається актуальною до наступного оновлення алгоритму.
Від теорії до практики
Все, про що було сказано вище, стосувалося лише аспектів роботи пошукової машини. А от як ці знання застосувати для розкрутки сайту? Вся справа в тому, що для правильного вибору стратегії розкручування необхідно добре розуміти, яким чином працює ця сама пошукова машина: збирає інформацію, ранжує сайти і т. д.
У свій час, коли одним з основних методів розкрутки було розміщення великої кількості ключових слів на сторінках сайту, багато вебмастера створювали цілі співтовариства з сайтів, щоб взаємним обміном посилань досягти високих позицій у рейтингах. А от чи працює ця тактика сьогодні? Працює, тільки результат швидше за все буде тимчасовим і короткостроковими.
Адже пошукова машина, як і людина, хоче вижити в агресивному навколишньому середовищі. Тому, якщо результати їх роботи будуть поганими (а от як раз нечесні методи розкрутки часто ведуть до видачі непотрібної відвідувачу інформації), то вони повільно, але впевнено перестануть існувати. А адже при постійно зростаючій конкуренції еволюціонувати вкрай необхідно.
Для прикладу, користувачеві значно зручніше і простіше знайти сайт з безліччю контенту, який йому необхідний. Як правило, на таких сайтах він часто оновлюється, що дозволяє сайту бути актуальним. Тому робіть висновки.
Важливим моментом залишається і обмін посиланнями. В даному питанні намічається тенденція до зниження релевантності зворотних посилань, обмін посиланнями між сайтами різних тематик і зовсім малоефективний. Але якщо ж ви все ж вирішите поставити зворотні посилання, обов’язково переконайтеся, що вони ведуть на споріднені за тематикою сайти.
Ця стратегія добре працює як для залучення відвідувачів, так і для підвищення релевантності сайту. Адже багато хто користувачі переходять з сайту на сайт за внутрішніми посиланнями. А якщо вони ще й стоять на авторитетному і відвідуваному ресурсі, то це тільки додатковий плюс.
І наостанок…
Сам собою напрошується висновок робити ставку на майбутнє. І ставлення до пошукової машині як живому організму (нехай і в загальних рисах) допоможе вибрати правильну тактику. Ось коли вона в черговий раз прийде на ваш сайт, то “нагодуйте” її смачним новим контентом, новими розділами і воно обов’язково до вас повернеться. А ось негостинних сайтів вони не люблять, як і бути обдуреними нечесними господарями. У роботів пам’ять відмінна…
Джерело: “Сайт про програмування і веб-дизайн”