User:69.162.159.40

Optymalizacja w celu wyszukiwarek internetowych (ang. Search engine optimization – SEO; zwana i pozycjonowaniem, ang. Web Positioning) – działania zmierzające do osiągnięcia za pomocą wiadomy serwis internetowy kiedy najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych gwoli wybranych słów natomiast wyrażeń kluczowych. W polskiej nomenklaturze branżowej dominuje subtelność pośrodku pozycjonowaniem i optymalizacją stron. Zwierzchni z terminów odnosi się do działań prowadzonych z wyjątkiem docelową witryną (np. Odnośnik building), oraz optymalizacja w takim kontekście oznacza działania prowadzone wprost na stronie internetowej (wpływające na jej budowę, clou tudzież strukturę).

pozycjonowanie kurs

Optymalizację okolica podzielić można na działania związane z modyfikacją treści na witrynie (pod kątem fraz, na które zamierza się ciągnąć się kampanię) tudzież zmianami w kodzie strony, niemającymi bezpośredniego wpływu na wygląd serwisu. Treść

W ekipa optymalizacji treści wchodzi m.in.:

stosowność treści w tagu tytułowym, rozmieszczenie ewentualnie położenie słów kluczowych w istniejących tekstach względnie tworzenie nowych (SEO copywriting), dobór adekwatnych nagłówków, odpowiednie zaaranżowanie treści jadłospis tudzież innych elementów, wchodzących w załoga linkowania wewnętrznego serwisu, rozkład tekstu alternatywnego w celu elementów graficznych tudzież innych obiektów (np. Flash). pozycjonowanie produktu

Dawniej działania te ograniczały się aż do zmiany treści tagów zakończenie Keywords natomiast Description, których bytowanie na stronie gwoli większości współczesnych wyszukiwarek ma autorytet marginalne. Kod komputerowy zaś struktura

Działania w dużej mierze niewidoczne dla przeciętnego użytkownika strony, mające choć autorytet na jej indeksowanie tudzież klasyfikacje w wyszukiwarkach owo np.:

dostosowanie strony aż do standardów W3C, oddzielenia warstwy logicznej struktury dokumentu odkąd warstwy jego prezentacji (np. przez aplikacja CSS), usprawnienie czasu ładowania okolica, sposób problemu powielonej treści, np. przez wskazanie wersji preferowanej wewnątrz pomocą konwertowania kanonicznego z poziomu kodu HTML względnie nagłówku HTTP dokumentu[1]; w przypadku zawartości źle powielonej wykonując przekierowanie 301[2], używanie przyjaznych adresów, np. niedaleko użyciu mod_rewrite, umożliwienie głębokiego linkowania w przypadku animacji Flash zaś rękojmia alternatywnej wersji w celu przeglądarek bez wsparcia dla wspomnianej technologii (w tym robotów wyszukiwarek internetowych),

Pozycjonowanie

jest następującym zazwyczaj po optymalizacji procesem pozyskiwania odnośników z serwisów zewnętrznych, które są jednym spośród czynników wpływających na pozycje w wynikach wyszukiwania. Nomenklatura

SERP – (ang. Search engine results page) – wyniki wyszukiwania w wyszukiwarce PR – PageRank – matematyczny wzorzec stworzony dzięki Google, na podstawie którego obliczana jest prestiż znalezionych stron w celu każdego zapytania zaś także cyfrowy skutek działania tego algorytmu. TPR – (ang. Toolbar PageRank) – PageRank wyświetlany w postaci zielonego paska na pasku narzędziowym zainstalowanym w przeglądarce stron WWW tzw. Google Toolbar GDPR – (ang. Google Directory PageRank) – PageRank jawnie będący do dyspozycji w katalogu Google RPR – (ang. Real PageRank) – Współczynnik PageRank nie jest wartością wyświetlaną dzięki dzielnik na Google Toolbar: TPR – RPR 0/10 – 0.15 – 0.9           1/10 – 0.9 – 5.4            2/10 – 5.4 – 32.4            3/10 – 32.4 – 194.4            4/10 – 194.4 – 1,166.4            5/10 – 1,166.4 – 6,998.4            6/10 – 6,998.4 – 41,990.4            7/10 – 41,990.4 – 251,942.4            8/10 – 251,942.4 – 1,511,654.4            9/10 – 1,511,654.4 – 9,069,926.4            10/10 – 9,069,926.4 – 0.85 ? N + 0.15 AT – Anchor Text – tekst/wyrażenie zawarte w treść odsyłacza Content – Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada "Content is King" – czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść – content Duplicate Content Penalties – Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony IBL – Inbound Links – Liczba linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor text-em Index/indeks stron – Zbiór stron dostępnych w danej wyszukiwarce – stron zindeksowanych przez robota wyszukiwarki Link exchange – Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR   Link popularity – Wartość otrzymana dla zapytania (link:adres strony) Naturalne linkowanie – Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron OBL – Outbound Links – Liczba linków wskazujących na zewnętrzne adresy plików/stron www Pozycjoner – Prawidłowa nazwa konsultant ds. pozycjonowania stron www/seo TBPR Update – Toolbar PageRank Update – inaczej update PageRank Update PageRank – Zmiana wartości publicznie dostępnej PR wskazywanej przez Toolbar Google TB Program Update – Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR   GDPR Update – Google Directory Update – Zmiana wartości PR publicznie dostępnej w katalogu Google PR    Update IBL – Zmiana wartości dla zapytania (link:adres strony) BL Update – Backlink Update – Zmiana wartości dla zapytania (link:adres strony) Algo Update – Algorithm Update – Zmiana algorytmu odpowiadającego za rezultaty SERP Site – Liczba zaindeksowanych przez wyszukiwarkę podstron witryny

Historia

Pozycjonowanie stron rozpoczęło się wraz z rozwojem pierwszych wyszukiwarek internetowych. Webmasterzy dążyli do tego, aby ich strona pojawiła się jako pierwsza w wynikach wyszukiwania dla danego zapytania. Początkowo nie było to trudne, gdyż wyniki w wyszukiwarkach opierały się na analizie słów kluczowych podanych przez autora w nagłówku strony. Później jednak, między innymi ze względu na łatwą manipulację słowami kluczowymi, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do treści strony.

Ewolucja wyszukiwarek wywołała ewolucję pozycjonowania przechodzącego przez wszelkie algorytmy binarne i wektorową analizę treści strony. Dopiero wyszukiwarki oparte na analizie topologii sieci, zliczające linki (takie jak Google), podniosły poziom trudności pozycjonowania stron. Zaawansowane algorytmy analizy topologii sieci wielu osobom wydawały się odporne na wszelkiego rodzaju próby manipulacji/modyfikacji SERP, jednak zjawisko Google Bomb, polegające na masowym dodawaniu na stronach linku ze wskazanym przez pomysłodawcę anchor tekstem, pokazało drogę do łatwego modyfikowania indeksu.

Termin "pozycjonowanie" pojawił się ok. 2002 r, wcześniej funkcjonował anglojęzyczny "web positioning". Pierwsze powszechnie znane "polskie" Google Bomb pojawiło się na przełomie 2003 i 2004 roku i polegało na linkowaniu ze słowem kluczowym kretyn adresu do sejmowej strony internetowej polskiego posła Andrzeja Leppera, co w efekcie dało pojawianie się wspomnianej strony na czołowych miejscach w wynikach wyszukiwania w Google dla hasła "kretyn" (zwykle jako pierwszy wynik). Akcja ta zyskała wielu naśladowców i podobne zjawiska można było zaobserwować dla innych słów i wyrażeń.

Skala działalności Google Bombing we wrześniu 2008 roku doprowadziła przed Sąd także młodego webmastera, 23-letniego Marka W. z Cieszyna, któremu został postawiony zarzut obrazy głowy państwa – Lecha Kaczyńskiego. Po wpisaniu w okno zapytań Google jednego z powszechnie uznawanych za obraźliwe słowa – strona www prezydenta RP pojawiała się jako jedna z pierwszych.

Pod koniec 2009 roku Google wprowadziło wyszukiwanie w czasie rzeczywistym (Real Time Search), polegające na przedstawianiu najaktualniejszych wyników z serwisów społecznościowych oraz mikro-blogów. 19 marca 2010 roku funkcja wyszukiwania w czasie rzeczywistym została oficjalnie wdrożona do polskiej wersji wyszukiwarki Google. Rynki międzynarodowe

Udziały rynku optymalizacji dla wyszukiwarek internetowych są różne w zależności od rynku i także jego konkurencyjności. W 2003 roku Danny Sullivan ustalił, że Google realizuje ok. 75% wszystkich wyszukiwań. Na rynkach poza USA udział Google jest często większy i w 2007 roku Google było dominującą wyszukiwarką na świecie. W 2006 roku Google obejmowało 40% rynku w USA, ale miało ok. 85-90% udziałów w Niemczech. Podczas gdy w tym samym czasie w USA istniały ponad setki firm przeprowadzających optymalizację dla wyszukiwarek internetowych, w Niemczech było zaledwie pięć.

W Rosji sytuacja jest odwrotna. Lokalna wyszukiwarka Yandex kontroluje 50% płatnych reklam z dochodu państwa, podczas gdy Google ma mniej niż 9% udziału. W Chinach Baidu w dalszym ciągu prowadzi w udziałach na rynku, choć w 2007 Google także uzyskało tu udziały.

Pomyślna optymalizacja dla wyszukiwarek dla rynków międzynarodowych może wymagać zawodowego tłumaczenia stron internetowych, rejestracji nazwy domeny z grupy domen wysokiej jakości na rynku docelowym i hostingu, który zapewnia lokalny adres IP. W przeciwnym wypadku fundamentalne elementy optymalizacji dla wyszukiwarek są w istocie te same i niezależne od języka. Kontrowersje

Kontrowersje w pozycjonowaniu stron wynikają ze sposobów zdobywania linków prowadzących do stron – IBL oraz z nieetycznych technik stosowanych w pozycjonowaniu. Działania niezgodne z zaleceniami dla webmasterów przyjęło się nazywać spamem w wyszukiwarkach. Spam w wyszukiwarkach jest traktowany podobnie jak spam pocztowy, czyli elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują.

W wyszukiwarkach stworzono specjalne strony, na których można zgłaszać strony, które stosują nieetyczne metody pozycjonowania, np. Google – Raport dotyczący spamu[3]. Etyczne i nieetyczne techniki pozycjonowania

W związku z ogromnym zainteresowaniem pozycją danej strony w wyszukiwarce zaczęto stosować różnorodne metody pozycjonowania m.in. takie, których nie akceptują twórcy wyszukiwarek lub nie są zgodne z zaleceniami dla tworzących strony, gdyż "zaśmiecają" wyniki wyszukiwania. Te metody zaczęto nazywać nieetycznymi. Są to na przykład:

Duże nagromadzenie słów kluczowych Słowa kluczowe niezgodne z treścią Ukrywanie słów kluczowych, np. użycie tekstu w kolorze tła, umieszczenie na niewidocznym elemencie lub w miejscu zwykle nie oglądanym przez użytkownika. Cloaking (ang. cloak – płaszcz) – serwowanie robotom wyszukiwarek (rozpoznawanych np. po adresach lub tzw. User-agent) specjalnie spreparowanej wersji strony.

Wykrycie stosowania takich technik może jednak przynieść odwrotny skutek – całkowitą eliminację strony z wyników wyszukiwania.

Należy wspomnieć, że wiele metod ułatwiających użytkownikom poruszanie się po stronie i odnajdowanie informacji może przyczynić się do poprawy wyników w wyszukiwarkach. Niektóre przykłady to:

Wymiana linków i banerów ze stronami o podobnej tematyce, umieszczanie stron w katalogach tematycznych Rezygnacja z nawigacji uzależnionej od dodatkowych technologii, np. JavaScriptu, Flasha lub ramek, poprawa możliwości poruszania się po stronie, użycie mapy strony Usunięcie błędów (np. składniowych) z kodu strony Optymalizacja kodu strony, usunięcie nadmiarowych znaczników HTML Dobre opisanie elementów strony, np. tytułu strony lub treści alternatywnej dla grafiki Czytelne opisywanie odnośników (unikanie opisów typu "tutaj" albo "kliknij" na korzyść lepiej opisujących zawartość strony, do której prowadzą) Stosowanie "przyjaznych" adresów (np. http://example.com/sklep/drukarki/laserowe/ zamiast http://example.com/index.php?page=236&id=32) Wyróżnianie (np. pogrubienie, podkreślenie) ważniejszych słów, stosowanie nagłówków

Bardzo istotne jest również optymalizowanie treści i artykułów zawartych na stronie tak, aby lepiej odzwierciedlała założone w fazie projektu frazy kluczowe, poprzez np. używanie słów kluczowych w mianowniku.

W odróżnieniu od nieuczciwych metod pozycjonowania, tutaj można być pewnym, że te metody będą zawsze akceptowane przez wyszukiwarki, a ich stosowanie nie spowoduje eliminacji strony z wyników wyszukiwania.