Każdy, kto chociażby interesował się założeniem lub prowadzeniem własnej strony internetowej, z pewnością spotkał się z zagadnieniem optymalizacji, oznaczającym dostosowanie jej zawartości (publikowanej treści i grafiki) oraz kodu pod określonym kątem.
Jednym z rodzajów procesu, istotnym ze względu na wyszukiwanie witryny w ogromnych zasobach internetu, jest optymalizacja pod kątem wymagań wyszukiwarek internetowych (SEO – search engine optimization). W prostym ujęciu, polega ona na odpowiednim dobraniu, ustaleniu częstotliwości pojawiania się oraz oznaczeniu słów lub fraz kluczowych, ustaleniu kolejności tytułów i podtytułów, aktualizacji treści, dobraniu metatagów, określeniu hierarchii nagłówków, doborze odnośników (hiperłączy), dostosowaniu ustawień serwera, zgodności kodu strony z wymaganymi/zakładanymi parametrami (walidacja), stosowaniu opisów zamieszczonych grafik w kodzie strony, a także dostosowaniu wagi znajdujących się na niej plików.
Celem optymalizacji dowolnej strony www jest osiągnięcie jak najwyższej pozycji witryny w wynikach wyszukiwania internetowego. Adres strony dostosowanej do algorytmów robotów wyszukiwarek internetowych będzie pojawiał się wysoko w rezultatach wyszukiwania, dzięki czemu będzie miała ona większe szanse na znalezienie jej przez internautów. Warunkiem skuteczności całego procesu jest respektowanie narzuconych przez wyszukiwarki standardów. Najczęstsze błędy w optymalizacji są następstwem nieprzestrzegania określonych zasad – wynikających z niewiedzy bądź celowego działania webmasterów.
Nieskuteczne zabiegi optymalizacyjne, powodujące osiąganie niskich pozycji w wynikach wyszukiwania, dotyczą przede wszystkim nieumiejętnego stosowania słów kluczowych i błędów w kodzie strony. Źle dobrane słowa kluczowe – niedostosowane do zawartości i przeznaczenia strony, jej charakteru oraz docelowej grupy odbiorców, a także słowa/frazy zbyt ogólne (mało sprecyzowane), nie wskazujące na specyfikę witryny, sprawiają, że jest ona niekonkurencyjna wśród tysięcy sobie podobnych. Oprócz właściwego doboru słów kluczowych, istotne jest również ich rozmieszczenie oraz zagęszczenie. Powszechnym błędem optymalizacyjnym jest umieszczanie poszczególnych słów kluczowych w przypadkowych miejscach w obszarze strony, na które roboty indeksujące nie zwracają uwagi – słowa znajdujące się poza preferowanymi miejscami, takimi jak znacznik title (tytuł strony), nagłówki (od h1 do h6) oraz opisy obrazów i zdjęć (znacznik alt), mogą zostać uznane jako spam. Optymalnym natężeniem słów kluczowych w stosunku do całej objętości danej strony jest pięć procent – zbyt duże ich zagęszczenie oraz duża ilość powtórzeń będzie nie tylko źle odbierane przez wyszukiwarki, ale również sprawi, że znajdujące się na stronie treści będą nieczytelne.
Najczęściej popełnianymi błędami w obszarze kodu strony są: umieszczanie znaczników meta w niewłaściwym miejscu sekcji head, niedomykanie znaczników table, tr, td, div, powtórzenie w sekcjach head i body, a także zablokowanie (brak lub ograniczony dostęp) strony dla robotów wyszukiwarek poprzez zastosowanie niepoprawnych wpisów w znaczniku meta lub niepoprawne napisanie pliku indeksującego stronę (robots.txt).
Zabiegami celowymi, określanymi również jako techniki manipulacyjne, mającymi na celu sztuczne osiągnięcie pożądanych wyników wyszukiwania, są działania również w większości skoncentrowane wokół słów i fraz kluczowych. Za niedopuszczalne błędy uważane jest bardzo częste powtarzanie wybranych słów w znacznikach meta, ich nienaturalne zagęszczenie, powodujące, że przedstawiona treść jest nielogiczna w odbiorze, powtarzająca się zawartość strony (tzw. dublowanie contentu) oraz bardzo duża liczba linków o charakterze wychodzącym.
Dość częstą praktyką, w zakresie nieuczciwej optymalizacji, jest stosowanie ukrytego tekstu (inny tekst jest widziany przez użytkownika strony, a inny przez roboty wyszukiwarki), zawierającego najczęściej wiele słów kluczowych, na przykład poprzez dobór takiego koloru czcionki, jaki jest kolor tła danej strony lub stosowanie kaskadowych arkuszy stylów CSS. Przemycanie słów kluczowych możliwe jest również przez stosowanie ukrytych obrazów ze znacznikiem alt, a także stosowanie tzw. cloakingu, czyli prezentowanie różnych wersji tej samej strony w zależności od tego, czy odwiedza ją zwykły użytkownik (internauta), czy robot indeksujący.
Najnowsze komentarze