Blog

  • Google dla blogerów

    Google ostatnio pomaga wszystkim jak może, udostępniając wskazówki dotyczące SEO, wypuszczając piękny klikohit czy banując SWLe (których oczywiście jako prawdziwi WhiteHatowcy nie używamy).

    W centrum pomocy dla webmasterów pojawił się artykuł specjalnie dla blogerów, w którym Google pomaga wszystkim nie wiedzącym po co mają bloga, odnaleźć się w tym nowym środowisku. Nie jest to nic nowego, powiedziałbym nawet, że nikomu się nie przyda, no ale skoro Google uznało, że warto to każdy bloger musi też tak uznać. W końcu jak Google każe nam skakać, my przejęci pytamy: jak wysoko?

    No i w ten sposób, łatwo ustalić sobie pewne minimum, które wiadomo że trzeba robić, żeby Google kochało nas (blogerów) i nasze blogi.

    Tutaj znajduję się oryginalny artykuł. Jak widać został podzielony na 3 częsći.

    Tworzymy dobry content (no kto by pomyślał?)

    – piszmy dużo i często. Wg Google częste wpisy powodują, że czytelnicy wracają do nas o ile oczywiście treść jst odpowiednia. No i oczywiście, Google namawia nas do szukania informacji (nie zgadniecie gdzie?) na tematy dotyczące naszej niszy i jeśli nie potrafimy znaleźć satysfakcjonującej odpowiedzi – sami o tym napiszmy!

    – trzymamy się wytycznych Google dla webmasterów – duh! chciałoby się powiedzieć ;)

    – kategoryzujemy posty – czyli kategorie i tagi to świetny pomysł (duh! po raz drugi)

    – upewniamy się że blog jest łatwo dostępny dla robotów (znaczy userów) – pod tym tytułem Google chciało powiedzieć żebyśmy linkowali do swojego bloga oraz umieścili nasz blog w domenie, lub subdomenie naszej strony firmowej or www.example.com/blog).

    – (uwaga!) usuwamy spam z komentarzy, a może nawet zapobiegamy jego powstawaniu dzięki odpowiednim wtyczkom

    – piszemy unikalne posty. zwłaszcza jeśli uczestniczymy w programach partnerskich, to staramy się nie kopiować i wklejać, bo Google lubi jak jest ładnie i unikalnie, jasne?

    Tworzymy blog very-very-user-friendly

    – tworzymy odpowiednie tytuły dla naszych postów, dzięki czemu user będzie zadowolony (a jak user to i Google, naturalnie), odpowiednie tytuły tworzą nam automatycznie odpowiedni wygląd linków, co wprowadza Google w jeszcze większą ekstazę

    – udzielamy się w społeczności blogerów – czyli komentujemy u innych, piszemy na różnych forach, bo jeśli piszemy ciekawe komentarze to czytelnicy danej strony chętnie odwiedza i nas. (hurra!)

    – tworzymy kanał RSS, w którym udostępniamy cały artykuł, a nie tylko skrót. Może to skutkować tym, że w pewnym okresie ludzie nie będą wchodzić bezpośrednio na naszą stronę, ale w dłuższej perspektywie przynosi to dobre skutki (aż się chce zapytać Google jakie?)

    Webmasters Tools

    – dodajemy bloga do Google Webmasters Tools

    – weryfikujemy go

    – dodajemy mapę strony

    A jak już to wszystko zrobimy, to szukamy bardziej zaawansowanych wskazówek na blogach, bo na wskazówkach Google daleko nie zajedziemy :)

  • Collateral Damage

    Załóżmy sobie rzeczy następujące:

    1. Budzimy się pewnego dnia i wszystkie nasze strony podłączone do systemu wymiany linków (reklamowych) mają bana w Google.

    2. Po podwójnym samospoliczkowaniu się, i sprawdzeniu na różnych 15 DC, bany ciągle się utrzymują.

    3. Wszystko to dzięki walce na górze. Walki Szooka & Spółki z właścicielami SWL.

    Staram się o w miarę obiektywne podejście do sytuacji, na tyle na ile pozwala mi na to fakt, że sprzedaję (chociaż juz nie jestem pewnien kolejnego miesiąca i przedłużenia działania mojej firmy w AIP) punkty w systemach wymiany.

    Zastanawiacie się jak doszło do tej sytuacji?

    Ja też.

    Szook na blogu Lexy napisał (bez złośliwości i wycieczek osobistych – co od razu odbiera się w sposób zupełnie inny niż na PiO)

    Pawle mógłbym odnieśc się podobnie, swl kiedys wkroczyły na rynek SEO i rozwalały jego inną idee tworzenia małego wartościowego zaplecza.
    Myslisz, że to konkurencyjnośc wymaga miliona BL, nie – to SWL napedzaja się wzajemnie i swoich uzytkownikow. Ktorzy dzis daja wiecej i wiecej, ee spadłem o oczko dodam 20 k pkt. BL rosnie, nastepny doda 40 tys.
    Czy taka jest idea seo, przecież doprowadza to do chorej sytuacji w ktorej niszowki wymagaja strasznego BL i faktycznie dobry serwis ma ograniczone możliwosci.

    Nikt nie zaprzeczy, że jest to problem, zwłaszcza dla firm SEO, dużych firm SEO, których nakłady punktów na frazy ciągle się zwiększają, co przy (zbliżającej się?) recesji będzie powodowało nieopłacalność działania na rynku. Jeśli byłbym właścicielem firmy SEO, to taka sytuacja nie byłaby dla mnie zbyt ciekawa, i zamiast walczyć na coraz większe miecze, których powoli nie da się już unieść, doprowadziłbym do zmiany broni na lżejszą.

    Więc punkt dla Szooka.

    Ale, branża jaka jest taka jest. Kilku(nastu?) wielkich graczy i mnóstwo szaraczków (taki ja np), którzy starają się w tym wszystkim odnaleźć. Duży sobie powalczy z dużym, rozwali SWL’e, dochody spadną mu o 1/3 , ale luzik, duży da sobie radę.

    Szaraczek za to dostanie z odłamka i zakończy działalność w sełobranży. Skoro 99% ludzi z PiO korzysta z SWLów, tzn że Ci sami ludzie tworzą precle, katalogi, dodają wpisy, dbają o te nasze polskie (kiepskie) seofundamenty, które mogą nie wytrzymać zmiany warty przy korycie, którym teraz są SWLe.

    To dzięki SWLom pozycjonowanie „wyszło do ludzi”, Paweł Kobis pewnie sam tego nie przewidział, tworząc sławna kampanie promocyjną Linkorna opartą na banerach z 'towarzyszami’ którzy nawoływali do rewolucji.

    Ta rewolucja przyszła. Ostatnio w pubie rozmawiałem z kobietą, która naprawdę miała pojęcie czym jest pozycjonowanie i wiedziała, że wyniki w Google nie są naturalne.

    Skoro pozycjonować może teraz każdy, to w interesie dużych firm powinno być, albo stworzenie własnego SWL’a i uczynienie go najlepszym, albo dążenie do sytuacji w której staramy się powrócić do dawnego stanu rzeczy, czyli do pewnej SeOlitarności. Obie sytuacje możemy obserwować w SeoPolsce już od jakiegoś czasu.

    No i teraz co będzie lepsze, jeszcze kilka SWL’i czy mała nuklearna zagłada i budowanie wszystkiego od początku?

    2 sytuacje:

    1. Powstaję jeszcze kilka SWL’i, każdy dodaję te same strony, moc linków maleje, cena punktów spada, opłacalność spada, trzeba produkować więcej, wreszcie dochodzimy do sytuacji w której rynek jest zbytnio nasycony, bo nie ma klientów którzy będa w stanie płacić wielkie stawki za niegdyś proste frazy. Przestajemy zarabiać.

    2. Wszystkie nasze strony dostają banana, wszyscy nasi klienci odchodzą, przestajemy zarabiać. Seo wraca do podziemia, ale przecież firmy ciągle potrzebują podwykonawców, ktoś proponuję jakieś nowe rozwiązanie, które ponownie pozwoli na uproszczenie procesu. Maszyneria znowu rusza..

    Jakkolwiek by się nie stało, po dupie dostaniemy i tak my. Czarnuchy. Dostarczyciele punktów, pielęgnujący katalogi i precle, stawiający MFA, zbierający na punkty, które możemy sprzedać. Dlatego nie powinniśmy mieszać się do walki na górze, nie powinniśmy wspierać żadnej ze stron. Powinniśmy robić swoje i dywersyfikować przychody. Mamy dochód z SWL’i, fajnie, ale niech to będzie 30% całości. Mamy swoje strony w SWL, fajnie, ale niech to nie będą wszystkie domeny. Stawiamy totalne śmieci, fajnie, ale postawmy coś wartościowego (chociażby raz na jakiś czas).

    I ja naprawdę nie piszę teraz o PiOkemonach którzy najpierw postawia precla, a potem pytają po co im on. Mówię o ludziach, którzy wiążą przyszłość z branża, ale może są podwykonawcami, których może nie interesują najwięksi klienci i rozmowy z nimi (w szczególności to), i może chcą po prostu fajnie zarabiać, ale nie być koniecznie w mainstreamie i bić się o top 3 w bieliźnie.

    Mnie te całe podchody po prostu zwyczajnie stresują (efekty podchodów wkurzają, zwłaszcza jak chce odpocząć), co z jednej strony jest fajne, bo ciągle coś się dzieje i mogę działać, ale z drugiej strony czuje się ciągle zagrożony i to nie ze swojej winy. Może i się teraz skarże, może to i totalna prywata, ale to w koncu blog, mogę pisać co chce.

    I w sumie totalnie straciłem wątek i sens tego postu, więc zanim przyjdzie mi do głowy myśl o skasowaniu wpisu, napisze tylko, że potrafię zrozumieć Szooka, ale też potrafię zrozumieć stronę przeciwną. Obie dąża do czegoś nowego, i prędzej czy później, do efektów tego co zrobią, trzeba się będzie dostosować.

    Myślę, że to ostatnie zdanie idealnie oddaje sens tego postu. Skoro ewolucja pozwoliła nam dostosować się do takiego trybu życia jaki prowadzimy teraz i nie musimy już polować na mamuty, to brak SWL’i też nie powinien nas aż tak obchodzić. No ale znowu, co jest złego w jedzeniu mamutów?*

    A jak równowaga nie zostanie zachwiana w żadną stronę i nic się nie zmieni? Cóż, zarabiać i tak będzie trzeba. Zdrowe podejście do tematu ma kolega Pajmon, który korzysta zarówno z SWL jak i w po kryjomu produkuję tematyczne zaplecze, przy pomocy osławionego bota Małgonetki ;) Na swoim blogu napisał bardzo ładnie:

    Smutne, bo żegnanie tego co znane i wydające się bezpieczne jest smutne. Przygotowywanie się na Nowe jest za to tym bardziej ekscytujące ;-)

    Dobranoc Państwu ;)

    * autor czyta za dużo książek o tematyce behawioralnej i ewolucyjnej, co jest zboczeniem po kierunku studiów

  • Love, Love, Love czyli phpBB3 SEO

    Przyznać się, kto pomyślał, „o, następny będzie pisać o (nie)stanowisku Googla w sprawie SWLi” gdy zobaczył, ikonkę nowego postu na czytniku RSS? ;) (Jakby ktoś potrzebował jednak wiedzieć to i to i to może jeszcze).

    Na szczęście wpis ten zupełnie nie dotyczy blogu Google, a jest w zasadzie zupełną prywatną notką dzięki której zbiorę sobie wszystko czego potrzebuję do modyfikacji forum na skrypcie phpBB3 na Google/SEO friendly w jednym miejscu.

    Na początek phpBBpreMOD, czyli odpowiednio spreparowana wersja instalacyjna forum na skrypcie phpBB3 zawierająca na wstępie:

    • phpBB SEO mod rewrites – czyli mod zmieniający urle na „przyjazne” dla wyszukiwarek. W zasadzie mod zawiera 3 rodzaje tego moda (można sobie odpowiednio dobrać strukturę linków), ale nie będziemy się rozdrabniać. Mod podstawowy jeśli chodzi o wartość dla szybkości indeksacji przez Google.
    • GYM SItemaps & RSS – nazwa mówi aż za dużo, ale dla zasady: mod dodaje do naszego forum sitemapy oraz kanały RSS. Wiadomo jaką ma to wartość i co można z tym zrobić, prawda?
    • phpBB3 SEO Zero duplicate – w teorii ten mod robi przekierowanie 301 każdej duplikowanej treści na właściwy adres, co zapobiega DC na naszym forum. W praktyce ani razu nie zmusiłem go do działania, więc nie wiem jak działa :)
    • phpBB3 SEO Dynamic Meta tags – mod tworzy meta tagi dla każdej podstrony naszego forum, bazując na treści pobranej z pierwszych linijek pierwszego postu na danej podstronie.
    • phpBB3 SEO Optimal titles – mod optymalizuje tytuły, wyrzucając zbędne słowa i dodając paginację do tytułów.

    Taką paczkę polecam zainstalować gdy tworzymy kolejne forum od podstaw. Naturalnie, jeśli mamy już działające forum, to każdy z powyższych modów możemy ściągnąć i zainstalować osobno.

    Teraz kilka modyfikacji poprawiających linkowanie wewnętrzne, co jak wiadomo znacznie ułatwia wyszukiwarce indeksację forum.

    Similar Topics, czyli odpowiednik naszego wordpressowskiego Related Topics :) Mod dodaje 5 podobnych tematów pod każdym topiciem na naszym forum. Popracować trzeba tylko nad ustawieniem przyjaznych urli, no chyba, że lubimy mieć duży site i nie martwimy się duplikatami.

    Edit: Znalazłem też moda Advanced Similar Topics.

    Word Cloud – czyli nasza chmurka tagów. Im więcej na forum używane jest dane słowo, tym większa czcionka się wyświetla. Polecam zmodyfikować plik forum/language/polish/search_ignore_words.php i dopisać inne słowa, których nie chcielibyśmy mieć w chmurce.

    Error Pages – tworzy strony błędów dla naszego forum. Przy okazji każdy błąd jest zapisywany do bazy danych, co umożliwi nam sprawniejsze zarządzanie forum.

    Możemy jeszcze na koniec skorzystać ze wskazówek zawartych tutaj. Niemieckiego nie znam prawie wcale, a poradziłem sobie z rozszyfrowaniem wszystkiego, także nie będę już wyjaśniał :)

    Post ten pisałem, na bieżąco modyfikując swoje forum, także mam nadzieję, że nie ma jakiś większych błędów, czy niezgodności. Jak zwykle zachęcam do komentowania, może coś mi umknęło, a może znacie lepsze seomodyfikacje do phpBB3?

    PS. A czemu taki głupi tytuł? Bo ide za 2 dni na koncert T.Love i za dużo ich ostatnio słucham :)

  • I won’t go down in history…

    I won’t go down in history…

    Tak między nami to mój poprzedni post wzburzył porządnie kilka osób, czego dowody mam zarówno w komentach jak i na swojej skrzynce.. ale chyba nie będę się tym przejmował skoro i tak zostanę zniszczony.

    Dlatego nie dość, że nie zaprzestanę tego okropnego procederu, to jeszcze pokaże po kolei co i jak robić, jeśli ktoś z „powykręcanych moralnie polaczków” takich jak ja, chciałby też coś zarobić. Nie jest to moja metoda. Nie jest to nowa metoda. Nie jest to super tajna metoda, po prostu nikt jej u nas jeszcze nie opisał.

    Kilka zasad:

    1. Nie tworzymy stron na całe życie. Nie tworzymy ich nawet na rok. W zasadzie takie strony postoją jakieś 3-4 tygodnie, bo tyle uda się je utrzymać zanim dostaną bana w Google.

    2. Każda domena na siebie zarabia. Czy to przez Adsense, czy przez sprzedaż punktów w systemach wymiany, czy przez co tam chcecie, a potrzebujecie trafficu żeby zarobić.

    3. Dostaniecie bana na tą domenę jeśli nie będziecie przestrzegać punktu pierwszego. Wiem. Sprawdziłem to kilka dni temu gdy poleciało mi ~40 domen. Wiem, że szkoda taka stronę zdejmować, ze może jeszcze coś zarobi skoro tak dobrze idzie, że a nuż widelec.. Nie. Nie uda się. Dostanie bana i to jest jedna rzecz której możecie być pewni.

    4. To nie jest żadne blackhat, nikt nie traci na tym co robimy, nikogo z niczego nie okradamy.

    5. Blogerzy nie wiedzą co to RSS, nie wiedzą, że wszystkie ich posty znajdują się przypuśmy na wordpress.com i że każdy tag ma tam swój własny kanał RSS. Nie wiedzą, że sami udostępniają innym swoją treść, nie wiedzą że nasza strona to może być nasz mały prywatny agregator RSS (a co nie może? Google samo sie na niego wchodzi i indeksuję, nikt go nie zaprasza. Jak chce banować to be my fucking guest, ale nie mylmy prawa z pieprzonymi wytycznymi Googla. Dla wszystkich typu skoro-nie-chcesz-Googla-to-zrób-noindex – jestem początkującym użytkownikiem internetu. Nie wiem o co chodzi. Jakieś no-index? Stworzyłem sobie stronę i agreguję na niej moje ulubione blogi, co w tym złego? :( ).

    6. Skoro tego ^ nie wiedzą to będą się skarżyć. Będą wysyłać skargi do naszego hosta, do Adsense (czy czego tam używacie) i zapewne znajdziecie się na czarnej liście splogów na wordpress.com. Ponownie, proszę bardzo, strona będzie istnieć jakieś 3 tygodnie, zarobi na siebie, zarobi na Ciebie i zniknie.

    7. Co robimy ze stroną po 3-4 tygodniach? Wywalamy WordPressa, wstawiamy htmla z keywordami, dorzucamy Adsense. Menda (tak, menda. Jeśli dostaję za darmo podlinkowany post i traffic ode mnie za fragment tekstu i mu źle, to jest mendą i tyle) która zapewne narzekała na to, że jej posty pojawiają się na Twojej będzie szczęśliwa, że jej narzekania poskutkowały. Win-Win.

    8. Taką stronę możemy potem wykorzystać w recyklingu (za kilka miesięcy powtórzyć od początku), możemy też zrobić 301 na naszą inna wspaniała white-hat stronę, która akurat jest w tej samej tematyce i linki które zdobyliśmy się jej przydadzą, a nam samym przyda się traffic z trackbacków z blogów, które tak okropnie okradaliśmy z postów (wstydźmy się!).

    Ok, teraz brudna robota.

    1. Instalujemy WordPressa.

    2. Znajdujemy sobie niszę, i kilkanaście kanałów RSS – mała podpowiedź, co ma jak wyglądać – http://wordpress.com/tags/music/feed/

    3. Instalujemy zmodyfikowaną wersję WP-Autoblog. Modyfikacją polega na tym, że przed każdym postem jest doklejana formułka w stylu:

    [autor] wrote an interesting post on [nazwa bloga]. Here’s the excerpt:

    [treść postu]

    [Read the whole article at [link do oryginalnego postu].

    (Radze poedytować plik wp-autoblog.php i pozmieniać treść tych dopisków, nie chcemy zostawiać śladów życzliwym, prawda?)

    Dzięki temu mamy o połowę mniej narzekania od zbulwersowanych blogerów, a czasami nawet dostajemy podziękowania za miły gest (to pewnie od tych powykręcanych moralnie amerykańców, którzy nie widzą jaką im wyrządzamy okropną szkodę).

    4. Ustawiamy wtyczkę dodajemy reklamy albo instalujemy SWL(R), w zasadzie to co tam chcemy.

    5. Zarabiamy.

    6. Jeśli nie zarabiamy, to stawiamy więcej blogów na domenie, albo zwiększamy liczbę kanałów RSS, albo zmieniamy reklamy, cokolwiek. Strona musi zarabiać (a golem musi pracować – za dużo Pratchetta :) ).

    7. Powtarzamy, powtarzamy, powtarzamy.. aż wykończymy serwer.

    8. Tyle, do roboty.

    … but I will go down on your sister.

    PS. Dla wszystkich dbających o czystość internetu: Jeśli tak dbacie o czystość, to ruszcie tyłki i posprzątajcie własne podwórko, czy klatkę schodową. Co? Za trudno? Trzeba się ruszyć sprzed kompa i potem nie można się nikomu chwalić, że dbasz o czystość? Cóż.

  • Why so serious?

    Why so serious?

    Normalnie, gdy tracę jednej nocy 9 domen i jakieś 50tys punktów w systemie wymiany linków reklamowych, to jestem trochę zły, zwłaszcza, że wiem że to zwykły donos, a nie niewidzialna ręka Googla. Normalnie zabieram się za kalkulację i liczę ile straciłem, ile muszę odpisać z miesięcznego planu, ile muszę zainwestować i zaczynam szukać najszybszej metody na zwrot tej kasy (tak kasy, bo ja nie straciłem strony internetowej, która kocham i dopieszczałem od 5 lat, straciłem efekt swojej pracy, produkt, straciłem swoje pieniądze – tak to do Ciebie – podpierdalaczu). Normalnie odpuszczam sobie prace na jeden dzień, idę na rower, piwo. Normalnie, właśnie tak jest.

    Dzisiaj jednak nie jest normalnym dniem.

    Za 3 dni, wyjeżdżam na wakacje – w Tatry. W Tatry które kocham i do których wyjazdu sobie nie odpuszczę. Przez ostatnie 2 lata dużo w moim życiu się zmieniło, dlatego musiałem zainwestować w laptopa, nową komórkę, musiałem to zrobić w ostatnich dniach i naprawdę nie przewidziałem, że ktoś dla własnej przyjemności zacznie zgłaszać moje strony (nie, nie było ich na żadnej liście), akurat teraz. Wiem, że to co było wczoraj to tylko początek, bo resztę stron jest bardzo łatwo wyłapać i wiem już też ile tej kasy stracę (tak kasy, nie stron). Panu podpierdalaczowi (kimkolwiek jesteś) naprawdę dziękuję, dało mi to wiele do myślenia i zainteresowałem się tym i tym. Od września na pewno skorzystam. Od września zajmę się też innymi systemami wymiany. Jakimi? Nie z Polski. To jedyny wyznacznik.

    Teraz czas na kawe i zarwanie nocy.

  • Premiera AutoPligga

    Dzisiaj miała miejsce premiera AutoPligga – narzędzia dzięki, któremu każdy Pligg bez odpowiednich zabezpieczeń będzie narażony na dużą dawkę spamu. AutoPligg tworzy nowe konta, postuję i automatycznie głosuje na swoje wpisy. No i ma wbudowaną obsługę proxy.

    Widać więc, że narzędzie jest zaawansowane i możliwe, że warte swojej ceny. Dlatego, każdego zainteresowanego kupnem zapraszam na oficjalną stronę Auto Pligga hxxp://toolshed.syndk8.net/

    Wiem jednak też, że dzięki mojemu wpisowi, kilka osób zdecydowało się postawić ten skrypt na własny użytek, dlatego też ostrzegam, żeby uważać na rejestrację nowych użytkowników (ja póki co usunałem plik register.php na wszystkich swoich Pliggach).

    Pligg wydaję się być już martwym projektem, dlatego nie można spodziewać się odpowiedzi twórców Pligga na narzędzie syndk8. Jedyny update jaki ostatnio wyszedł, został zrobiony przez fana projektu, twórce SocialBuzz, bloga z którego dowiedziałem się o problemie i do którego odsyłam.

  • Indeksacja po raz kolejny.

    Ostatnio nie mogę zejść z tego tematu i codziennie wpadają mi do głowy coraz to nowe pomysły. Dzisiaj możecie przeczytać jeden z nich :)

    Do rzeczy. Wiemy już jak zaindeksować swoje WP, a skoro idzie to tak łatwo, to dlaczego by nie wykorzystać silnika WP do indeksowania stron na innych skryptach?  Prawda, że proste?

    Potrzebujemy:

    1. Pełnej listy url swojej strony – możemy wykonać za pomocą tego skryptu
    2. Plugina do WP – Caffeinated Content, chociaż też niekoniecznie, możemy to robić ręcznie (nie polecam), albo znaleźć inny, efektywny sposób (jak znajdziemy to piszemy w komentarzach ;) )
    3. nowej instalacji WP, najlepiej na subdomenie docelowej strony, chociaż może to być gdziekolwiek. Subdomene podałem jako przykład, żeby się nie pogubić później, jak już będziemy wykorzystywać ten sposób na masową skalę ;)

    Co robimy:

    1. Instalujemy WP na subdomenie strony która chcemy zaindeksować, korzystając z tych wskazówek.
    2. Tworzymy listę urli (możemy ręcznie) i wklejamy je do odpowiednich plików w kofeinie.
    3. Ustawiamy kofeinę i zapominamy.

    Teraz w każdym, szybko indeksowanym poście, będzie znajdował się link do naszej głebokiej podstrony na docelowej stronie. Googielek przejdzie spokojnie, niczego nie podejrzewając :) i ją zaindeksuję.

    Tyle na dzisiaj, zdecydowanie za ładnie za firewallem, żeby siedzieć przed monitorem :)

  • A czy Twój blog się indeksuje?

    O sposobie na indeksację stron pisałem jakiś czas temu, oczywiście- jak wszystko – wymagało to środków (naszych, papierowych) i czasu w którym roboty Googla przetrawią nasz kontent. Można to zrobić inaczej? Oczywiście.

    Wystarczy nam WordPress, trochę usprawnień w opcjach i kilka bardzo przydatnych pluginów.

    Na początek 2 obrazki, żeby każdy od razu nabrał chęci do działania i czytania i dalej ;)

    Przyrost site
    Przyrost site w Google

    Jak widać w ciągu 3 dni, site urósł do 47, a to wszystko tylko dzięki…

    Przyrost linków
    Przyrost linków w Yahoo!

    … jednemu backlinkowi? (ze strony, którą pierwszy raz widziałem i która zupełnie, nie powinna linkować do mnie)

    Nie.

    To wszystko dzięki wbudowanej w WP funkcji pingowania, odpowiedniej, unikalnej treści (wszystkie strony są w indeksie głównym Googla – sprawdzamy tutaj), sitemapom, i kilku wtyczkom… wspominałem już o unikalnej treści?

    Teraz do wszystkich mega seowyjadaczy – to jest wpis dla początkujących, i nie porusza tematu dogłębnie. Tak wiem, że metoda linki, linki, linki jest najlepsza.

    Ok – oto czego potrzebujemy na dobry początek:

    Zmiany w ustawieniach WordPressa:

    • przyjazne linki – ustawiamy w Ustawienia/Odnośniki  ja używam zawsze /%postname%
    • lista serwerów do pingowania– wklejamy w zawartość pliku w Ustawienia/Publikacja
    • widgety: chmurka tagów, ostatnie komentarze, które wyświetlają się w sidebarze naszej strony, a umożliwiają głęboką indeksację
    • warto stworzyć sobie tzw. spis treści bloga – czyli właściwie sitemapę, ale przyjazną dla ludzi. Przykład możecie zobaczyć tutaj – spis treści. Jak to robimy
      • Tworzymy Stronę (nie post), z tytułem np. Spis treści
      • jeśli trzeba ustawiamy odpowiedni slug (nazwa przyjaznego urla)
      • treść strony zostawiamy pusta
      • scrollujemy na dół strony, szukamy Page Template i ustawiamy na archives.php
      • publikujemy

    Wtyczki które polecam:

    • All in One SEO Pack nie będę odkrywczy, po prostu Google potrzebuję tej wtyczki :)
    • Google XML Sitemaps to kolejna niezbędna wtyczka, dzięki której WP wygeneruje nam mapę naszej stron, w formacie zjadliwym dla Google i Yahoo. Możemy ustawić automatyczne pingowanie Google Sitemaps przy odświeżeniu naszej mapy
    • Simple Tags – ta wtyczka zastąpiła, mi Related Posts, czyli plugin dzięki któremu na końcu naszego wpisu, WordPress doklejaj linki do powiązanych artykułów (na podstawie otagowania). Wtyczka ma także inne fajne funkcję, jak powiązane tagi, czy funkcję autolinkowania tagów. Ta ostatnia funkcja także bardzo ładnie pomaga zarówno przy głębokim linkowniu, jak i pozycjonowaniu się long tail. Czyli łopatologicznie – jeśli mamy tag o nazwię Babcia Helena, i zrobimy potem wpis w którym wystąpi to wyrażenie, to Simple Tags stworzy link, który będzie prowadził do tego tagu.
    • AskApache Search Engine Verify – plugin pozwala nam na bardzo szybką weryfikację strony w Google Webmasters i Yahoo SiteExplorer. Po prostu kopiujemy meta tagi przygotowane przez wyszukiwarki i wklejamy na stronie konfiguracyjnej pluginu. Szybko i skutecznie.

    Prawdopodobnie jest jeszcze 17 innych metod i wtyczek, które właśnie wyleciały mi z głowy i przypomną się za 3 minuty, także jeśli używasz czegoś innego i działa, to proszę o sugestię w komentarzach :)

  • Jeżodopalacz na start.

    Długo oczekiwany, ostro testowany, nowy system wymiany linków, już jest. Jeżodopalacz, znany także jako SeoDopalacz wystartował.

    W naszym kraju mamy pełno systemów wymiany linków, stałych, dynamicznych, stało-dynamicznych ( ;) ), co więc wyróżnia system Jeża? To, że nie jest ani SWL’em dynamicznym, ani stałym. SD to system presell pages, które każdy użytkownik stawia samodzielnie, po czym używa linków ze stopek swoich normalnych stron do zaindeksowania wpisów. Zawiłe? To po kolei:

    Cytując pomoc systemu:

    SeoDopalacz by Excluseo to system wymiany linków, czyli program wspomagający pozycjonowanie stron w popularnych wyszukiwarkach internetowych (Google, Live, Yahoo). SeoDopalacz jest systemem oferującym tematyczne linki presell page stałe (dożywotnie) w treści oraz bezpośrednie linki 14-21-dniowe, w treści.

    Pierwsze wrażenia po zalogowaniu – o co tutaj chodzi? ;) Na szczęście pomoc systemu jest zrobiona profesjonalnie i nawet największy laik sobie poradzi.

    Główne założenia:

    1. Mamy duże punkty, które dostajemy za udostępnianie serwerów i (sub)domen na automatyczne, systemowe Precle, banalne i szybkie w instalacji
    2. Mamy małe punkty, które dostajemy za podpinanie linków w stopki naszych zwykłych stron (jak w każdym innym systemie), i które służą zarówno do indeksacji naszych precli jak i są linkami bezpośrednimi do stron pozycjonowanych
    3. Dodajemy linki i piszemy artykuły, które wyświetlają się w sieci precli i pozycjonują naszą stronę

    [+]

    Podoba mi się to, że na każdy dodany link, pod groźbą kary systemowej musimy wstawić artykuł (w praktyce podoba mi się to mniej, ale wrodzona leniwość ludzi testujących – a więc pozycjonerów – do generowania przyzwoitej treści, to raczej standard). Podoba mi się nowoczesna koncepcja – każdy skrypt pinguje do serwisów agregujących jak i do swoich kolegów precli, każdy ma swój kanał RSS i mapę strony. Z ciekawych rzeczy można też wspomnieć o kontroli nad nadużyciami przez samych użytkowników, którzy mają możliwość moderacji precli, artykułów jak i samych linków.

    [-]

    Nie podoba mi się, to że.. no ok, damy systemowi tydzień wakacji od krytyki, i miejmy nadzieję, że wszelkie usterki techniczne zostaną naprawione.

    System właśnie wystartował, więc zapraszam do rejestracji :)

    pozycjonowanie
    Jeśli ktoś myślał ze link jest z refem, to się nie mylił :)

    Koledzy blogowicze o SeoDopalaczu:
    FabrykaSpamu
    Pajmon
    Web Marketing

    Edycja: 22 lipca
    Jeż o swoim dopalaczu

  • Hostnine.com – dlaczego warto.

    Po kolejnych problemach z polskim hostingiem (najpierw miałem je z nazwa.pl, home.pl) a dokładnie z 8p.pl postanowiłem zabrać swoje spamowe manatki i poszukać czegoś, co spełni moje niewygórowane oczekiwania. Większość swoich stron (bo ostało się kilka na home.pl, jor.pl i neteasy.pl) przeniosłem za granicę, na dreamhost.com, który za podobną jak w home.pl cenę utrzymuje jakieś 300% zaplecza więcej.

    Bynajmniej.pl trafił jednak w inne miejsce, gdyż szukając hostingu w UK, trafiłem przypadkiem na ofertę firmy hostnine.com, u której hosting okazał się strzałem w 10 (póki co).

    Firma oferuję praktycznie wszystko, poczynając od zwykłego shared hostingu za 4$ miesięcznie, a kończąc na serwerach dedykowanych od 139$. Ewenementem w ofercie h9 jest możliwość wyboru lokalizacji naszego konta (10 IP do wyboru, od USA, UK po Azję).

    Na obrazku jest jeszcze Australia, ale została już wycofana z oferty.

    W h9 posiadam 2 konta, jedno zwykłe shared, drugie (od dzisiaj) resellerskie. Dużym plusem przy wyborze resellera, (zwłaszcza w tej branży i zwłaszcza przed startem pewnego systemu) jest możliwość założenia 10 osobnych kont w różnych częściach świata, a więc na różnych IP. Do konta resellerskiego dodawane są też 2 dedykowane IP, ale niestety musimy mieć dobry powód (np. chęć użycia SSL), żeby admin nam je przydzielił. Każde kolejne dedykowane IP to koszt 1$ miesięcznie.

    Kontem możemy zarządzać przez cPanel lub Plesk, a całym resellerem sterujemy za pomocą wygodnego panelu h9.

    Oczywiście nie jest też, aż tak różowo – przy próbie założenia konta na Florydzie, dostałem informację, że na dzień dzisiejszy mają komplet; podobnie było ze stanem Iowa. Z drugiej strony, dobrze, że nie zapychają serwerów maksymalnie, no ale znowu oferta zakładała co innego.

    A co mnie tak naprawdę przekonało? Oczywiście stosunek jakości do ceny. Wpisując przy zakupie kod „h9” dostajemy rabat 50%. Przy wpłacie na rok z góry, za konto reseller płacimy 119$ co przy ilości IP i swobodzie użytkowania (albo nawet zarabiania przy wynajmowaniu kont) czyni tą ofertę (prawie) idealną.

    Link tradycyjnie z refem :)