Алгоритми ПС

Алгоритми пошукових систем (ПС) – це особливі математичні формули, за допомогою яких пошукові системи приймають рішення, щодо видачі сайтів в результатах пошуку.

Як відомо, пошукові машини шукають сайти за певними ключовими словами або фразами. Алгоритми пошукових систем дозволяють знайти сайти, які найбільш точно відповідають запиту користувача, відсікаючи при цьому ресурси, непотрібні користувачу або ті, що використовують недозволені методи оптимізації.

Пошукова машина, керуючись алгоритмом, аналізує контент сайту, з’ясовує наявність у складі контенту ключової фрази, приймає рішення про те, наскільки сайт відповідає пошуковому запиту, і залежно від ступеня відповідності присвоює сайту ту чи іншу позицію у видачі – вище або нижче.

Для кожної пошукової системи розробляються свої алгоритми. Схеми роботи всіх алгоритмів пошукових систем побудовані на подібних принципах. Наприклад, всі пошуковики обов’язково оцінюють унікальність контенту. Відрізняються ж алгоритми пошукових систем деякими іншими інструментами аналізу.

Опис

На ранній стадії розвитку мережі Інтернет пошуковим системам для знаходження потрібної користувачу інформації достатньо було аналізувати лише основні параметри вмісту сторінок: наявність заголовків, ключові фрази, обсяг тексту і т. д. Однак, з появою оптимізації та численних способів спаму, пошукові системи були змушені ускладнити свої алгоритми, в цілях розпізнавання та відсіювання сайтів, щодо яких застосовувалися подібні методи.

Механізми пошукових алгоритмів – секретна інформація. Ніхто, крім розробників пошукових систем, точно не знає, що саме враховують алгоритми та на які фактори вони звертають увагу. Вся інформація про їх роботу, що з’являється в мережі Інтернет, в більшості випадків представляє собою особисті висновки оптимізаторів, засновані на практичних спостереженнях за сайтами, які вони розкручують.

Так, деякі системи при видачі сайтів в пошукових результатах здатні аналізувати інформацію не тільки про частоту ключових слів, а й про найбільш популярні сторінки та кількість часу, який витрачається користувачами на їх перегляд. Чим ці параметри більші, тим вища ймовірність того, що на сайті розміщена дійсно якісна інформація. Інший підхід передбачає визначення кількості посилань і обчислення авторитетної ваги майданчика. Це такі показники, як ТІЦ, PR та інші, механізм визначення яких також є ще одним алгоритмом роботи пошукових систем. Кількість параметрів, що враховуються пошуковими алгоритмами, може досягати декількох сотень. Наприклад, система «Google» при ранжуванні сайтів звертає увагу на більш ніж 200 факторів.

Алгоритми пошукової системи Google

Історія алгоритмів пошукової системи Google почалася з введення в пошуковий механізм індексу цитування, що полягає в ранжуванні сторінок і сайтів в залежності від кількості та авторитетної ваги посилань (PageRank), переданих на них з інших ресурсів. Таким чином мережа Інтернет перетворилася на подобу колективного розуму, який і визначав релевантність сайтів. Подібна концепція виявилась вдалим нововведенням, завдяки якому Google і стала найбільш популярною системою.

На ранніх етапах алгоритми Google приділяли увагу лише внутрішнім атрибутам сторінки. Пізніше стали враховуватися такі фактори, як свіжість інформації та географічна приналежність. У 2000 р. почав використовуватися алгоритм Hilltop, запропонований Крішною Бхарат, для більш точного розрахунку PageRank. У 2001 р. початковий механізм дії системи був повністю переписаний. З цього моменту Google стала розділяти комерційні та некомерційні сторінки. У цьому ж році був введений коефіцієнт, який додавав посиланням, переданих з авторитетних сайтів, більшу вагу.

Першим, по-справжньому складним бар’єром для фахівців SEO, став алгоритм «Флорида», введений Google в 2003 р. Він не тільки поставив під сумнів доцільність використання розповсюджених на той момент методів просування, але й істотно змінив позиції пошукової видачі, виключивши з неї сторінки з повторюваним анкором та переспамленими ключовими словами.

У 2006 р. система стала використовувати розробку ізраїльського студента Орі Алона – алгоритм «Оріон», що поліпшує пошук завдяки відображенню найбільш релевантних результатів і приймає до уваги якість індексованих сайтів.

У 2007 р. компанія Google запровадила ще одну систему фільтрів і штрафних санкцій – алгоритм “Austin”. Багато сторінок, які займали до його введення перші місця в рейтингу, знизилися на кілька позицій і не піднімалися вище шостого місця.

У 2009 р. був анонсований алгоритм “Caffeine”, який виступив в якості ще одного серйозного поліпшення інфраструктури “Google”. З цього моменту система стала не тільки індексувати більше сторінок, але і значно швидше проводити пошук.

Алгоритми пошукової системи Яндекса

З літа 2007р. компанія Яндекс повідомляти широкій публіці про зміни у своїх механізмах ранжування. До цього моменту вони були невідомі.

У 2008 р. почалося тестування пошукового алгоритму “Магадан”, який став враховувати вдвічі більшу кількість факторів, ніж попередні версії. Також були додані такі нововведення, як розпізнавання абревіатур і обробка трансліта. Крім того, Яндекс почав індексувати зарубіжні сайти, що призвело до збільшення конкуренції за запитами, що містять іноземні слова. Підсумковий реліз “Магадана” відбувся 16 травня того ж року.

У 2008 р. з’явився алгоритм “Знахідка”, що викликав зміни в способі обліку чинників ранжирування. Також було відмічено, що за деякими запитам в пошуковій видачі Яндекса стали з’являтися інформаційні сайти, зокрема Вікіпедія.

10 квітня 2009 запрацювала пошукова програма «Арзамас». Нововведення, пов’язані з її появою, серйозним чином позначилися на просуванні сайтів. Молодим сайтам стало ще складніше пробиватися на перші позиції і нарощувати кількість посилань. Проте, впровадження географічної приналежності, позитивно позначилося на регіональному просуванні ресурсів.

У 2009 р. пошукова система Яндекс анонсувала новий пошуковий алгоритм «Сніжинськ». Його особливістю стало впровадження нової технології машинного навчання, названої розробниками “Матрикснет”. Фактично, з цього моменту, просування сайтів стало менше підконтрольне оптимізаторам. Яндекс, за допомогою нової системи, пов’язав величезну кількість факторів і показників сайтів, що в підсумку зробило ранжування максимально релевантним оцінкам асесорів.

У 2010р. відбулися зміни в способі аналізу текстового змісту сайтів. Тепер сторінки, насичені ключовими словами, стали потрапляти під фільтри і видалятись з пошукової видачі. На перший план вийшов копірайтинг. Незабаром був анонсований черговий апдейт системи «Матрикснет», яка раз на місяць здійснювала своє “навчання”.

У цьому ж році, за повідомленнями представників компанії, зі стадії тестування вийшов новий алгоритм «Обнінськ», призначений для поліпшення ранжирування гео-запитів.