Subskrybcja Nowe Subskrybuj Komentarze

Precelek SEO

Postanowiłem założyć sobie precelka. Wrzuciłem skrypt Wordpressa na serwer trochę pokombinowałem i pozmieniałem ustawienia ale wszystko już jakoś się prezentuje. Potrzeba jeszcze go dopracować żeby był jak najbardziej przyjazny i oczywiście lekko podlinkować żeby zaindeksowało go w wyszukiwarce. Jest to mój pierwszy precelek więc będę się uczył na swoich błędach bo te są nie uniknione. Tematyka tego precelka ma z założenia dotyczyć pozycjonowania i zagadnień z nim związanych czyli w skrócie ma to być blog tematyczny o SEO z możliwością dodawania przez użytkowników swoich artykułów. Szanblon gotowy, podstawowe wtyczki już zainstalowane a w ciągu kilku dni dojdą być może kolejne. W każdym razie chciałbym go utrzymać porządnie i zrobić z niego prawdziwego presell page. Pod tym adresem każdy kto ma coś ciekawego związanego z tematyką SEO do napisania może wrzucać swoje artykuły: [upadło :)]. Regulamin został ustalony, więc należy go przeczytać przed dodaniem artykułu. Teraz zabieram się za dopracowanie go w najdrobniejszych szczegółach a potem wrzucę swoje zapytanie na forum i zaczne zdobywać kolejne linki dla precelka żeby jednak był on chociaż trochę wartościowy.

Chyba jednak straciłem zapał do precelka seo i robie przekierowanie na domene główną. Za to w planach nowe precle. Tym razem inna tematyka i nieco inne zasady. Będą to artykuły do przedruku, bądźmy kreatywni oraz ... [także padnięty].
Czytaj dalej...

Polak potrafi - Google zdemaskowane

autorem artykułu jest Kamil Sobczak



Informacje opublikowane ostatnio na blogach Google, wywołały ogromną burzę wśród webmasterów, pozycjonerów i marketingowców. Google wyraźnie na nich podkreśla, że nie akceptuje systemów wymiany linków i ponad wszystko stawia na naturalne pozycjonowanie, czyli takie którym my nie ingerujemy w pozycję naszej strony w wyszukiwarce. Jednocześnie tymi słowami przeczy samo sobie, gdyż w innym temacie opublikowanym w narzędziach dla webmasterów, zachęca do katalogowania strony, co z kolei mija się z celem naturalnego pozycjonowania, gdyż każdy link zamieszczony w katalogu przekazuje część swojej mocy na zamieszczoną w nim stronę.

W innym z kolei wątku, pracownicy Google krytykują za przeoptymalizowanie strony, czyli stworzenie takiej witryny, którą nie będzie zawierała błędów konstrukcyjnych. Jednak co w tym złego, że ktoś się zna na rzeczy i pisze strony zgodne z wszelkimi standardami, ułatwiając przeszukiwanie swych zasobów innym wyszukiwarkom. Czyżby Google w ten sposób chciało podkreślić, że jest wyszukiwarką bezkonkurencyjną i nic nie może jej stawić wyzwania. Jeśli tak rzeczywiście twierdzą to bardzo się mylą, ale o tym za chwilę.

Pracownicy Google stworzyli coś takiego jak pojęcie złe sąsiedztwo, nie określając jednocześnie pełnej definicji dobrego sąsiedztwa. Jednak po wypowiedziach i różnych opiniach, jako dobre sąsiedztwo możemy uznać linkowanie ze stron o tej samej lub powiązanej tematyce. Tylko co jeśli jedna osoba ma kilka stron o różnych tematykach i chce je linkować między sobą, aby jedna strona robiła reklamę drugiej? W Google o tym pomyślało i nakazało aby w takim przypadku stosować w linkach atrybut nofollow, który nie będzie przekazywał parametru PR (ang. Page Rank). Ale czy początkujący webmaster, albo przeciętny blogowicz będzie wiedział co to nofollow ? Zdecydowanie nie, więc sugestia Google jest w tym przypadku jak najbardziej nietrafiona.

Przeglądając dalej sugestie, komentarze, posty i odpowiedzi na stronach Google, widać gołym okiem jak pracownicy tej wyszukiwarki kłamią i wprowadzają użytkowników w błąd. Wychwalają swój produkt ponad wszystko, pisząc jaki jest on doskonały i ile to innowacyjnych rozwiązań zaimplementowano, jednocześnie ukrywając szczegóły funkcjonowania algorytmu wyszukiwarki. Takie podejście sprawiło, że wiele osób uwierzyło, że Google rankinguje strony biorąc pod lupę setki czynników.

Jednak prawda wyszła na jaw, dzięki Polakom, a właściwie twórcom systemów SWL (systemy wymiany linków), które na całym świecie nie mają sobie równych – są najlepsze i bezkonkurencyjne, opatrzone różnymi ciekawymi technicznymi i programistycznymi rozwiązaniami. Ich właściciele trąbili głośno o blefach Googla (głównie Xann, administrator e-weblinka) i te przypuszczenia się sprawdziły. Jakość SWLi i ich ogólnodostępność sprawiła , że pracownicy Google wreszcie sami przyznali się do licznych kłamstw. W rezultacie wyszło, że to właśnie linki są głównym i najważniejszym czynnikiem, decydującym o pozycji strony w wyszukiwarce. Zatem sama wyszukiwarka Google niczym specjalnym nie różni się od pozostałych. Jedynie co ją wyróżnia to wskaźnik PR (ang. Page Rank), czyli stopień oceny strony na podstawie ilości treści i jakości linków (ale tylko teoretycznie). Jednak jak wielu pozycjonerów zauważyło, sam PR nie pływa na pozycję strony. Kiedy Googlarz (pracownik) w jednym z wywiadów został zapytany – jak się ma wskaźnik PR do pozycjonowania ? Wolał przemilczeć tą sprawę, gdyż nie chciał ujawnić szczegółów. Aczkolwiek ta sprawa również ujrzała światło dzienne, dzięki spostrzegawczości Naszych rodaków, którzy wywnioskowali że linki ze stron który mają jakiś PR, nadal są mocniejsze niż te, którym PR nie nadano.

Została jeszcze sprawa omówienia tematyczności strony. Czy aby na pewno tematyczność strony miała istotny wpływ na jakość linku ? Tutaj pewnie pojawią się różne sprzeczne opinie. Jednak twórcy SWL twierdzą, że ten współczynnik sam w sobie nie ma tak wielkiego znaczenia, a sama sprawa wzbudziła zainteresowanie, dzięki kłamliwym blogom Googla. Takie rozwiązania po prostu były wygodniejsze dla Googla, a nie pozycjonerów, gdyż czas jaki trzeba poświęcić na budowę tematycznej strony i napisanie artykułów z linkami jest znacznie dłuższy niż użycie systemów SWL.

Ostatnio pracownicy Google twardo likwidują z swych zasobów web spam, ale robią to bardzo niechlujnie i nieostrożnie. W efekcie z indeksu lecą zarówno strony spamowe, jak i te które na zbanowanie i filtry nie zasłużyły. W rezultacie wyniki wyświetlane przez wyszukiwarkę Google z dnia na dzień są coraz gorsze i niekiedy znalezienie czegokolwiek wymaga olbrzymiej cierpliwości. Kilka dni temu poszukując potrzebnej mi informacji o sztuczce do Photoshopa (program do obróbki grafiki), znalazłem ją dopiero na setnej stronie wyszukiwania (a wcześniej przed banami była w 1-szej dziesiątce). O dziwo ta sama strona w wynikach wyszukiwania MSN, była na właściwej pozycji. Niestety taka sytuacja spotkała mnie już kilkakrotnie, przemawiając na zmianę przyzwyczajeń z Google na MSN. Chciałbym jeszcze podkreślić, że w ostatnich miesiącach pracownicy MSN, ostro wzięli się do pracy, która zaowocowała tym że wyszukiwarka Microsoftu zaczęła indeksować coraz więcej stron, tym samym w znacznym stopniu poprawiło to jakość jej wyników. Ostatnie błędy Google sprawiają, że na dzień dzisiejszy pałeczkę rynku wyszukiwarek może przejąć kto inny. W tym boju stawiam na MSN, a jeśli ktoś zapyta dlaczego akurat nie Yahoo ? To odpowiem – ponieważ MSN jest w po polsku i obsługuje znacznie więcej języków, co daje jej status międzynarodowej.

Kiedy napisałem artykuł spamerzy nie lubiani, ale pożądani, wiele osób zarzuciło mi kłamstwo. Jednak ostatnie wnioski i opnie wskazały, że artykuł jak najbardziej opisuje prawdę, bo Ci którzy wytykali mnie palcami, twardo trzymali się wytycznych Google. Jak pokazała jednak praktyka, ich wytyczne nadają się tylko do jednego miejsca – śmietnika.

Na zakończanie i podsumowanie, zacytuję post Xanna opublikowanego na forum PiO , aby zwolennicy wytycznych Google po raz kolejny nie zarzucili mi kłamstw, bo to kto tak naprawdę kłamie, zostało już wyjaśnione.

„Tak od wczoraj przyglądam się wszystkim dyskusjom jakie zostały wywalane przez post na blogu google i muszę powiedzieć ze pierwszy raz jestem dumy z tego ze jestem Polakiem i członkiem tego forum.

Zrobiliśmy takie walniecie ze światowego giganta walnęliśmy na kolana, oficjalnie zabrał stanowisko w sprawie Polskich SWL;i jednocześnie przyznając się do tego na czym opiera się w głównej mierze algorytm Google , o ile jeszcze przez jakiś czas trwały spekulacje o tyle już dziś jesteśmy na 100% pewni na jakich zasadach działa algorytm pozycjonowania stron.

O ile nie dawno można było polemizować o tematyczności mocy linka to dziś wiemy na pewno ze był to blef.

Nie powiem Polak potrafi”
(źródło cytatu: Xann – forum PiO)







--

Książki do pobrania za darmo.

Wiedza, która procentuje.

BET-AT-HOME, kto gra ten wygrywa.


Artykuł pochodzi z serwisu www.Artelis.pl

Czytaj dalej...

Reklama internetowa SEM przyszłością

autorem artykułu jest Tomasz Nowak



Rynek prasy kurczy się. Spadają nakłady dzienników codziennych. Jest to ogólnoświatowa tendencja. W związku z tym zjawiskiem, spadek wydatków na reklamę w prasie jest nieunikniony. Badania wykazały jednak, że odbiorców wiadomości nie ubywa. Znajdują je oni jednak nie w papierowych gazetach, a w sieci.

Rynek reklamy w internecie rośnie cały czas, i jak twierdzą eksperci w tej dziedzinie, nadal będzie rósł co najmniej w skali 25 proc. rocznie. Coraz większą popularnością cieszą się programy typu AdWords(Program reklamowy Google). Reklamy tego typu należą do działań typuSEM(Search Engine Marketing). Optymalizacja pozycji na frazy w wyszukiwarkach nazywana jest natomiast w branży jako SEO(Search Engine Optimization). O zapotrzebowaniu na działania obu typów świadczy ilość pojawiających się ofert pracy i o trudności znalezieniu odpowiednich specjalistów.

Ciężko znaleźć specjalistów reklamy internetowej

Na stronie http://www.jobexpert.pl można znaleźć np. ogłoszenia o poszukiwaniu specjalistów ds. SEO/SEM. Pomimo bardzo dobrych warunków płacowych trudno jest znaleźć chętnych na te stanowiska.

- Zaskoczyło nas to, że mimo tego, że nasz klient zaoferował doskonałe warunki zatrudnienia, to zainteresowanie pracą na stanowisku specjalisty SEO/SEM jest bardzo małe - mówi pracownik JobExpert Julita Andrzejewska. Coraz ciężej jest znaleźć kogoś na wyspecjalizowane stanowiska pracy, pomimo rosnących wynagrodzeń.

Wynika to, prawdopodobnie z tego, że na polskim rynku brakuje wyspecjalizowanych osób z dziedziny reklamy internetowej. Google największa wyszukiwarka nadaje tytuł GAP (Google Advertising Professional-Wykwalifikowany specjalista od spraw reklamy Google) osobom, które zdały odpowiedni egzamin i mają praktykę w zarządzaniu reklamami w Internecie.

Osób w Polsce z tytułem GAP jest jednak niecałe 200. Zapotrzebowanie rynku aktualnie co najmniej trzykrotnie większe. O dynamicznym rozwoju branży reklamy internetowej świadczy również fakt, że firmy, które powstały zaledwie kilka lata temu aktualnie wchodzą na GPW tak jest właśnie Coyote, K2 i innymi.

Podobnie sprawa ma się z działaniami typu SEO. Coraz więcej koncernów wynajmuje odpowiednie firmy w jednym celu: sprawić, aby dane słowo kluczowe na daną witrynę było w pierwszej dziesiątce wyników w Google. Choć firmy te biorą wysokie opłaty, nie narzekają na brak klientów.

Niestety choć rynek woła o specjalistów polskie uczelnie niechętnie reagują na te wołanie. Póki co powstało zaledwie kilka specjalności z tej dziedziny. W USA e-marketing już mocno wtargnął na uczelnie. Może zmieni się ta sytuacja, tym bardziej ze rewolucje w e-marketingu dopiero mają nadejść.

Czekamy na rewolucję

Prawdziwą rewolucją może być wprowadzenie reklamy łączącej media: tradycyjny outdoor i Internet. Już trwają badania nad taką reklamą. W technologii tej zostanie wykorzystany papier elektroniczny. W Polsce są już firmy, które o tym myślą.

—Planujemy w najbliższym czasie około 2 lat wprowadzić bardzo zaawansowany system reklamowy i udostępnić go media plenerom.

—Jaki ma to być system? Co w nim ma być innowacyjnego?

—Tego wolałbym nie zdradzać, bo trwają rozmowy z bankami w sprawie udzielenia kredytów. Mogę tylko powiedzieć, że system będzie łączył reklamę tradycyjną z zarządzaniem w Internecie. Zdradza osoba związana z branżą IT, która woli pozostać anonimowa.

Jako przykład na udane działania łączące media można podać program Google Print Ads(program, za pomocą którego w panelu administracyjnym Google Adwords można dodawać ogłoszenia w prasie tradycyjnej) prowadzony w USA. Dzięki programowi można zamawiać reklamę do wydrukowania w prasie przez konta Google AdWords w Internecie.





--

Tomasz Nowak Google Advertising Professional GAP


Artykuł pochodzi z serwisu www.Artelis.pl

Czytaj dalej...

Narzędzia ułatwiające pozycjonowanie

W Internecie jest wiele przydatnych narzędzi, które ułatwiają pozycjonowanie. Kilka z nich znajduje się w dolnej części tego bloga. Są to narzędzia darmowe, które każdy może zastosować na swojej stronie czy blogu. Oprócz narzędzi darmowych są też narzędzia płatne. Postaram się opisać kilka z nich z racji swojej przydatności przy pozycjonowaniu stron.


Serwisy dla pozycjonerów monitorujące statystyki:
Zaczne od dwóch przydatnych według mnie serwisów z których korzystam. Każdy z nich pozwala monitorowac pozycje swoich stron ze względu na słowa kluczowe, sprawdzać PageRank, analizować metatagi etc. Rejestracja jest darmowa i użyteczność do jakiegoś stopnia także jest darmowa. Jeżeli zależy nam na monitorowaniu większej ilości witryn i większej ilości narzędzi trzeba za nie zaplacić.

Pierwszy serwis to Twojapozycja.pl. Darmowe narzędzia z jakich można skorzystać to: Sprawdź słowo kluczowe, Meta tags, Page Rank, Link Popularity, Spider Robot, Analiza konkurencji, Keyword Density. Jeśli zależy nam na monitorowaniu witryn i innych dokładniejszych statystykach musimy zapłacić. Jest oczywiście okres testowy więc można bez problemu sprawdzic jakość oferowanych usług zanim za nie zapłacimy. Narzędzia te uważam za przydatne a co najważniejsze darmowe.

Drugi przydatny serwis monitorujący to Web-tools.pl. Serwis umożliwia darmową rejestracje i monitorowanie witryn. Odbywa się to na zasadzie punktów jakie możemy wykorzystać w danym miesiącu. Każdy ma swój miesięczny limit a określona czynność zużywa przypisaną do niej ilość punktów. W sytuacji kiedy punktów nam zabraknie trzeba je dokupić. Serwis oferuje monitorowanie swoich stron jak i zaplecza. Pozwala zdefiniować raporty np. w formacie pdf. Po wygenerowanym kodzie wklejamy go na swoje strony i mamy dostęp do statystyk indeksacji naszych witryn. Narzędzia SEO jakie mamy do użytkowania to: SEO statystyki, Sprawdź Page Rank™, Multi Page Rank™, Bulk Page Rank™, Archiwalny PageRank™, Linki wychodzące. Komponenty: SEO statystyki, Linki wychodzące, Host->IP->Host. Jeżeli jesteś początkującym pozycjonerem i chcesz monitorować swoją pierwszą stronę ilość punktów przy odpowiednich ustawieniach pozwoli zrobic to za darmo. Przy większej ilości punkty trzeba dokupić.

Kolejne darmowe statystyki to Histats.com. Warto się nimi zainteresować gdyż wystarczy się tylko zarejestrować. Z obsługą nie powinno być problemu. Należy zwrócić uwagę na górne menu. Pozycje takie jak: Traffic, Referer, Visitors oraz inne. Trochę klikania w linki i wszystko stanie się jasne.

Katalogowanie:
Katalogowanie jest metodą coraz mniej skuteczna ale nie można powiedzieć, że nie ma sensu dodawać swoich linków do katalogów. Dla początkujących pozycjonerów jest to w zasadzie najprostsza droga na zdobywanie linków. I zdecydowanie można to wykorzystać dla pozycjonowania zaplecza. Najgorsza rzeczą jednak jest samo dodawanie. Jest ono dosyć nurzące i zabiera cenny czas, który można by wykorzystać na inne ważniejsze czynności. Na szczęście tu z pomocą przychodzą nam specjalistyczne narzędzia.

SEO Adder-skrypt pozwalający na automatyczne dodawanie swoich stron do katalogów. Najpierw trzeba wpisać dane swojej strony w postaci: opisu, tytułu, słów kluczowych oraz kategorii do jakich ma być dodawana. Największa skuteczność jest osiągana przy katalogach qlWeb. Narzędzie to nie jest idealne ale na pewno przyśpiesza pracę. Bez własnej bazy katalogów skuteczność o wiele słabsza dlatego polecam skupić swoją uwagę na dobraniu odpowiedniej listy katalogów. Minusem jest jego cena w wysokości 350 zł.

Linkmaster-narzędzie służące do dodawania wpisów do katalogów stron. To co różni go od SEO Addera to przedewszystkim to, że jest instalowany na naszym komputerze jako apliklacja a nie jako skrypt umieszczany na serwerze. Jeśli chodzi o możliwości to sa one z tego co wiem dość podobne. Niestety nie miałem możliwości testowac tego narzędzia więc nie powinienem go porównywać z SEO Adderem dlatego odsyłam do wątku na tym forum PiO w którym można poczytać opinie użytkowników. Narzędzie kosztuje 79 zł.

Sprytne Katalogowanie-półautomat ułatwiający dodawanie do katalogów. Zaletą programu jest to, że można się połączyć o wiele szybciej z katalogami do których zamierzamy dodawać swoje wpisy. Cena narzędzia to 99.00 zł.

Semiadder-program automatyzuje proces dodawania do katalogów. Automatycznie uzupełnia wszystkie pola formularza zgłoszeniowego według danych, które wcześniej zostały ustalone w ustawieniach programu. Cena 99 zł.

Scuttler-skrypt do uruchomienia na własnym serwerze umożliwiający automatyczne dodawanie stron do katalogów opartych na skrypcie scuttle. Cena 99 zł.

Kolejną przydatną czynnością w pozycjonowaniu jest dodawanie stron do katalogów PresellPages. Aby móc zamieścić swoje linki trzeba sie trochę wysilić i stworzyć jakiś artykuł w którego treści znajdą się linki pozycjonujące. Po napisaniu takiego artykułu chcąc uniknąć wstawiania poraz kolejny tej samej treści można się posłużyć narzędziem do miksowania słów, które znajduje się na stronie mix.fabrykaspamu.pl. Wystarczy wkleić tekst dodać odpowiednie synonimy do podmiany i kliknąć na "miksuj".


Systemy wymiany linków(SWL):
Co jeszcze może być przydatne dla pozycjonera? Oczywiście systemy wymiany linków. Na naszym rynku można znaleść takowe charakteryzujące się różną skutecznością. Najlepiej jednak połączyć je ze sobą ponieważ osiągnie się wtedy bardziej optymalne efekty a siła "dopalająca" serwisy, które w nich uczestniczą będzie z pewnością większa. Jedne z bardziej popularnych systemów to:

LinkMe-jest to system wymiany linków stałych
LinkORN-również linki stałe
LiveLink-linki stałe
Seo-net-system wymiany linków dynamicznych


Narzędzia do tworzenia Google Sitemap:
Stworzenie mapy własnego serwisu ułatwia indeksacja stron w wyszukiwarkach. Do stworzenia takiej mapy można się posłużyć takimi narzędziami jak:

Neuroticweb
Xml-sitemaps
Sitemapspal


Kilka innych przydatnych stron:
www.optymalizacja.com.pl/narzedzia-seo/-kilka przydatnych narzędzi SEO
www.linkvendor.com-narzędzia do pomiarów i statystyk
www.webconfs.com-zestaw narzędzi SEO
www.seo-tools.pl-opis wielu ciekawych darmowych narzędzi SEO oraz linki do nich.


W Internecie można się natknąć na wiele różnych i przydatnych mniej lub bardziej dla pozycjonowania narzędzi. Niektóre z nich są w języku polskim inne w języku angielskim. Niemniej jednak każde z nich może byc nam, przydatne w określonej sytuacji dlatego polecam przyjrzeć się im i wybrać listę tych, które będą nam najbardziej odpowiadać.


Czytaj dalej...

Artykuły do przedruku jako narzędzie promocji


Czy wiesz, jak naprawdę działają artykuły do przedruku, które piszesz i wysyłasz do takich serwisów, jak Artelis, czy Eioba? Mało który autor zdaje sobie sprawę z tego, jak potężnym narzędziem dysponuje.

Po pierwsze, artykuły do przedruku są świetnym sposobem na zaistnienie jako ekspert w jakiejś dziedzinie. Jeżeli chcesz, aby cały świat wiedział, że znasz się na czymś, opublikowanie kilku artykułów jest najlepszym, co możesz zrobić. Artykuły do przedruku działają jak “zarzucenie sieci”, w którą z czasem złapią się potencjalni klienci, pracodawcy czy partnerzy biznesowi. To nie mrzonki!

Po drugie, dobrze napisane artykuły do przedruku są świetnym sposobem na “napędzenie” ruchu na stronie ich autora. Oczywiście, o ile w tekście artykułu znajdzie się aktywny link do witryny internetowej autora. Jeżeli artykuł jest wysokiej jakości, można liczyć nawet na kilkaset wejść miesięcznie z pojedynczego artykułu (choć rozsądniej byłoby liczyć na kilkadziesiąt). Zależy to od dziedziny, w jakiej działa autor, typu promowanej strony oraz jakości artykułu.

Po trzecie w końcu, artykuły takie mogą być traktowane jako narzędzie do wypozycjonowania strony autora. Artykuły do przedruku, jak sama nazwa wskazuje, są bowiem przedrukowywane na związanych tematycznie stronach i blogach. Powoduje to, że są czytane także przez ludzi nie zaglądających do samych katalogów, ale nie tylko. Artykuły do przedruku są również tanim sposobem na uzyskanie darmowych linków na stronach o podobnej tematyce, do promowanej witryny, powodując znaczący wzrost pozycji strony w Google.

W efekcie artykuły do przedruku mogą swobodnie stać się główną metodą promocji wielu witryn internetowych. Są w stanie zbudować markę strony i autora, zwiększyć ruch na promowanej witrynie oraz wypozycjonować stronę w Google: wszystko to bez konieczności wydawania nawet złotówki! Oczywiście problemem jest to, że nie każdy artykuł do przedruku jest w stanie to zrobić. Aby mógł on spełnić wszystkie swoje funkcje, należy wiedzieć, jak dokładnie należy go napisać.


--
Artykuł pochodzi z serwisu artykuly.com.pl - żródła darmowych artykułów do przedruku.


O autorze:
Bartosz Chmielewski


Czytaj dalej...

SEO Copywriting

Jak pozyskać najbardziej wpływowych czytelników w Internecie?

Najbardziej wpływowi czytelnicy w Internecie to roboty wyszukiwawcze. Dzień i noc przeczesują one Sieć, indeksując i klasyfikując napotkane strony. Dla jednych jest to wyrok zapomnienia, dla innych zaś palma pierwszeństwa w wynikach wyszukiwania. SEO Copywriting to sposób pisania artykułów i ofert na stronach, pomagający zdobycie ich uznania i zajęcie wysokiej pozycji w rankingach wyszukiwarek. Oto kilka prostych porad.


Jeżeli chcesz znaleźć coś w Internecie, to od czego najczęściej zaczynasz? Prawdopodobnie będzie to najbardziej popularna wyszukiwarka - Google. Wpisujesz w niej poszukiwany wyraz lub frazę i otrzymujesz stronę z listą wyników wyszukiwania.

Liczą się tylko najlepsi

Najbardziej interesujące i znaczące są linki z pierwszych trzech stron. Witryna, która mieści się w TOP 30 ma największe szanse na odnalezienie przez internautów. Rzadko bowiem ktokolwiek sięga dalej.

Oczywiście, najlepiej znaleźć się w pierwszej trójce wyników. Badania dowodzą, że prawie 80% kliknięć zbierają pierwsze trzy pozycje (Źródło: http://www.seoresearcher.com/distribution-of-clicks-on-googles-serps-and-eye-tracking-analysis.htm). Oznacza to największą oglądalność, a więc i sukces dla właścicieli, bowiem gdy treść tych stron zadowoli czytelników, nie szukają już dalej.

Kto decyduje o tym, która strona zajmie najwyższe pozycje w wynikach wyszukiwania? Roboty wyszukiwawcze. Trzeba więc je przekonać, że nasza strona warta jest wysokiego miejsca w rankingu.

Technikami, których zadaniem jest wypromować witrynę w Internecie jest pozycjonowanie i optymalizacja strony. W artykule tym zajmę się tylko tym drugim.

Czym jest optymalizacja strony? Najprościej mówiąc, jest to dostosowanie kodu i treści trony do celu, jaki ma ona zrealizować. Jest nim najczęściej przyciągnięcie określonej grupy internautów, którzy przeszukują Internet pod kątem wybranej frazy. Optymalizacja ma za zadnie wyróżnić kluczowe słowa w taki sposób, by roboty sklasyfikowały stronę jako źródło wartościowych informacji na wybrany temat.

Pisanie tekstów (copywriting) do publikacji w Internecie jest czymś innym niż pisanie tekstów do druku

Wyobraź sobie, że sprzedajesz usługi, polegające na pisaniu tekstów na strony internetowe. Załóżmy, że udało ci się stworzyć przekonującą ofertę. Wiesz, że każdy, kto ją przeczyta, skorzysta z niej. Jest tylko jeden warunek. Musi ja przeczytać. W przypadku drukowanych ofert, czy to w postaci ulotek, czy reklam prasowych, kluczowy jest nakład i grupa docelowa nośnika reklamy.

W Internecie jednak oferta ta musi być przede wszystkim widoczna, łatwa do znalezienia. Bo jak przekonać klienta, gdy nie ma on mozliwości przeczytania oferty? Trzeba więc ją tak napisać, by była przekonująca także dla robotów, aby dały jej wysokie miejsce w wynikach wyszukiwania. Dopiero wtedy, może przekonać czytelników i uczynić z nich klientów.

Realny przykład

Serwis dynanet.pl powstał po to, by pomagać właścicielom stron w przebiciu się z ofertą do jak największej grupy klientów/czytelników. Cel ten realizowany jest poprzez umiejętne pisanie tekstów, zamieszczanych w serwisach. Jednym z synonimów, opisujących zawartość mojego bloga jest fraza: ‘interesujące teksty’. Jak myślisz, co zobaczy internauta, gdy do wyszukiwarki Google wpisze tę frazę? Na dzień dzisiejszy, siedem na dziesięć linków na pierwszej stronie wyników wyszukiwania, prowadzi do mojej strony! Takie są fakty. Czy łatwo mnie znaleźć ;)?

Jak zdobyć wysokie miejsce w wynikach wyszukiwania?

Wybór słów kluczowych

Przede wszystkim trzeba stworzyć listę synonimów, które opisują zawartość witryny. Im lista dłuższa, tym lepsza. Potem warto te frazy wpisać w Google, aby przekonać się, jak wygląda konkurencja. W moim przypadku była duża 1,5 miliona stron! Jak przez to się przebić?!

Pisanie tekstu

Wybieramy interesujący temat, powiązany z wybraną frazą i… piszemy tekst. Co pisać? Jeżeli jeszcze nie sprawdziłeś, dokąd prowadzą linki z wyników wyszukiwania frazy “interesujący tekst” to zrób to teraz. Znajdziesz tam 26 pomysłów na napisanie ciekawego tekstu. Ważne jest, by tekst zawierał wartościowe informacje. Takie, które chętnie będą czytane.

Optymalizacja tekstu

Na tym etapie redagujemy tekst tak, aby jego kluczowe elementy zawierały wybraną przez nas frazę, lub jej synonimy.

Opis strony - Jest to tag . Dobrze sformułowany, powinien zawierać kluczowe słowa, a jednocześnie zachęcać internautę do przeczytania.

Tytuł - Najlepiej gdy pierwsze słowa tytułu to kluczowa fraza. Ma to ogromne znaczenie, gdy tytuł jest jednocześnie linkiem do artykułu.

Pierwszy akapit (lead) - Tutaj także muszą znaleźć się kluczowe słowa, przy czym może to być nawet dwukrotnie. Bardzo często lead pisany jest pogrubiona czcionką, co w przypadku optymalizacji pod kątem wybranej frazy, wzmacnia jej znaczenie.

Śródtytuły - To idealne miejsce na umieszczenie kluczowych słów. Jeżeli bezmyślnie, na siłę wpisujesz wybraną frazę gdzie tylko się da, sprawiasz, że tekst staje się sztuczny, mało ciekawy i nieczytelny. Umieszczenie zaś frazy, lub przynajmniej jednego ze słów kluczowych w śródtytule (tagi H1-H6), najczęściej nie pogarsza jakości artykułu, a nawet zwiększa jego przejrzystość.

Treść - Jeśli to możliwe, to postaraj się, by w każdym większym akapicie występowały kluczowe słowa frazy lub jej synonimy. Dla robotów wyszukiwawczych szczególne znaczenie mają słowa, które w jakiś sposób są wyróżnione. Wyróżnienia te, to tagi: <strong> <b> <u> <i>.

ALT - Szczególnym przypadkiem wyróżnienia słów kluczowych są opisy obrazków, umieszczone w tagu <img alt="">. Dobrze jest, gdy jest tam przynajmniej jedno z tych słów.

Publikacja

Jeżeli dobrze opracowałeś stronę, masz spore szanse na znalezienie sie u szczytu wyników wyszukiwania. Jest jednak sposób na zwielokrotnienie tego efektu. W moim przypadku było to zajęcie siedmiu miejsc na dziesięć na pierwszej stronie wyników z Google.

Wystarczy, że umożliwisz internautom nie tylko przeczytanie swojego artykułu, ale też bezpłatną publikację na ich stronach. Mozesz umieścić go w serwisie typu artelis lub artykularnia. Jeżeli przyłożyłeś się do pracy i twój artykuł jest wartościowy, to właściciele serwisów o podobnej tematyce umieszczą twój tekst na swoich stronach, a link w stopce będzie prowadził prosto do twojej witryny.

Podsumowanie

W artykule tym pokazałem prostą metodę na zdobycie wysokiej pozycji w rankingu wyszukiwania, co przekłada się bezpośrednio na oglądalność witryny. Kluczowym elementem tej strategii jest napisanie wartościowego i interesującego artykułu, zoptymalizowanego pod kątem wybranych słów kluczowych. Pomimo swej prostoty, metoda ta nie gwarantuje jednak za każdym razem wysokich pozycji w wynikach wyszukiwania. Jest to spowodowane tym, że ciągle zmieniają się słowa, frazy i tematy, poszukiwane przez internautów. Nieprzerwane śledzenie aktualnych trendów i dostosowywanie do nich zawartości witryny wymaga ciągłej pracy i doskonalenia, przynosi jednak rezultaty, które prowadzą do zwielokrotnienia ruchu na stronie.

Powodzenia!




--


Autor artykułu - Dariusz Puzyrkiewicz - jest copywriterem i specjalizuje się w pisaniu artykułów, ofert i reklam, przeznaczonych do publikacji w Internecie. Jest twórcą serwisu Dynanet.pl a także Pierwszego polskiego Copywriting FAQ.


Czytaj dalej...

Wiek domeny internetowej - Jak to jest?

Powszechnie w branży SEO (Search Engine Optimization) mówi się, że dla Google bardzo duże znaczenia ma data zarejestrowania domeny, czyli po prostu jej wiek.

Pozycjonowanie domeny, zarejstrowanej już wcześniej przez kogoś innego parę lat temu jest przez wielu pozycjonerów z branży SEO uważane za łatwiejsze niż pozycjonowanie zupełnie świeżej domeny oczywiście pod warunkiem, że wcześniej nie były nałożone na nią filtry albo nie została zbanowana w Google.

Domeny internetowe, znajdujące się na czołowych pozycjach w SERP (Search Engine Results Page) o wiele trudniej jest wyprzedzić przez nowo zarejestrowane domeny, ponieważ domeny czołowe posiadają już sporą ilość linków, które do nich prowadzą (w końcu są w pierwszej 10). A więc jeśli teraz chcemy znaleść się przed nimi to musimy posiadać albo podobną ilość linków albo po prostu linki lepszej jakości.

Ale czy ma to miejsce w każdej sytuacji i czy możliwe jest szybkie wejście do pierwszej dziesiątki domeny świeżo przez nas zakupionej?

Na początku istnienia domeny na pewno jest to możliwe z prostych powodów. Przyczyną takiego zachowania jest FSB (Fresh Site Bonus) czyli specjalny bonus, który jest przyznawany przez Google na początku istnienia domeny. Bonus polega oczywiście na tym iż strona postawiona na świeżej domenie znajduję się wysoko w rankingu, jednak utrzymanie tej pozycji wymaga od nas zaangażowania. Żeby nie wypaść za daleko w tył trzeba zająć się pozycjonowaniem witryny, czyli należy zorganizować odpowiednio dużą i silną liczbę linków oraz zająć się marketingiem w wyszukiwarkach w skrócie zwanym SEM.

Jednak czasami zdażają się następujące przypadki:

Czytałem pewien artykuł w którym jego autor kupił jak się wydawało świeżo zarejestrowaną domenę i po zaledwie kilku linkach jakie do niej sprowadził pojawiła się ona w czołówce na jedno z haseł mające dość sporą konkurencje w wyszukiwarkach. Jak pisał strona trzymała się bardzo dzielnie (być może nadal tak jest) i choć z wiadomych względów po części jest to spowodowane FSB, to na pewno dłuższe utrzymywanie się takiej domeny w rankingu jest efektem tego, że jak się okazało domena była już wcześniej zarejestrowana a w Webarchive.org znajdowały się jej dane. Wynika z tego, że na wysokie pozycje musiała tutaj mieć przeszłość domeny, którą zarejestrował lub odkupił od kogoś innego. Dlatego stwierdzić można, że dalsze pozycjonowanie tej właśnie domeny powinno być łatwiejsze z uwagi na fakt istnienia wpisu o niej w Webarchive.

Jaki z tego morał? Jak się okazuje kupując nowe domeny możemy całkiem nieświadomie stać się posiadaczmi domeny wartościowej, której pozycjonowanie będzie łatwiejsze niż w przypadku domeny, która nigdy nie istniała. Jest to wiadomośc pocieszająca ale trzeba mieć się na baczności, gdyż działa to w obie strony i możemy równie nieświadomie zakupić domenę, której późniejsze wypozycjonowanie będzie o wiele trudniejsze z powodu filtrów nałożonych przez Google. Dlatego przed zakupieniem czy rejestracją domeny warto się najpierw rozejrzeć i poszukać czy nie zostawiła ona po sobie śladów dla nas niekorzystnych.

Czytaj dalej...

 
SEO i SEM PL | TNB