Miejsce: messenger, osoby: Jeden seowiec, jeden fotograf.
S: – Widziałeś nowy model 4o? Jak ogarnia grafiki? AI zgarnia następną branżę. F: – Nie będzie grafików S: – Tak jak copywriterów, czy junior devów S: – Pewnie nawet SEO zdechnie. F: – Nie będzie niczego (RIP panie Kononowicz).
No i w mojej głowie to już jest. Mem ze śmiercią która odwiedza kolejne drzwi. Dawaj na LinkedIn!
Pokój 1: Copywriterzy – leżą. Pokój 2: Programiści – leżą. Pokój 3: Graficy – leżą. A na końcu drzwi z napisem „SEO”.
Odpalam GPT, mam tam projekt „Posty LinkedIn”, tak, z pomysłami na posty na LinkedIn.
Wrzucam prompt nad którym pracowałem bardzo długo:
No tak niekoniecznie skorzystałem z tych wersji, ale po 15 minutach wyglądało już całkiem dobrze. Ma się ten styl.
Mem? No cóż, nie było aż tak prosto. Skończyło się na tym, że musiałem sam wrzucać napisy na drzwi, jak boomer, w programie graficznym.
No ale się udało.
.. i poszło.
A potem?
Wieczorem poodpisywałem na komentarze (ładnie sobie rosło), zamknąłem LinkedIna, zrobiłem herbatę (nie zrobiłem herbaty, ale nie pamiętam co robiłem) i żyłem dalej.
Następnego dnia spojrzałem… i byłem pod wrażeniem.
Teraz to wygląda tak:
79 334 wyświetlenia. 319 reakcji. 136 komentarzy. +21,9% nowych obserwujących w 2 dni (>150 osób)
Nie wrzucałem posta nad którym pracowałem 2h. Nie miałem strategii. Wrzuciłem mema z kosą.
Najlepsze jest to…
…że ten post był o tym, jak AI „wycina” kolejne zawody – a powstał przy współpracy z AI.
To AI podpowiedziało mi copy i dopingowało (a to też ważne) jak wymyślałem kolejne wersje (ale nie za dużo). Tak więc to AI pomogło mi zrobić rozpierdol na LinkedInie.
Czyli jakby nie patrzeć… AI zabrało mi robotę i dało mi zasięg.
(znowu sobie zepsuje CWV takim gifem, ale co zrobić).
Vibe coding to nowe podejście do tworzenia oprogramowania, w którym nie musisz umieć programować. Wystarczy, że wiesz, co chcesz stworzyć – a całą resztę robi za Ciebie sztuczna inteligencja. Vibe coding polega na współpracy z AI, która generuje kod na podstawie Twoich promptów, czyli opisów tego, co ma powstać.
Skąd się wziął vibe coding?
Vibe coding pojawił się jako odpowiedź na rewolucję generatywnej AI. Dzięki narzędziom takim jak GPT, Copilot czy Claude kodowanie stało się dostępne dla osób, które nigdy wcześniej nie pisały kodu. To właśnie sedno vibe codingu:
Nie musisz wiedzieć jak coś zakodować – wystarczy, że wiesz co chcesz stworzyć.
Jak działa vibe coding?
Masz pomysł – np. aplikacja do dzielenia rachunku ze znajomymi.
Piszesz prompt do AI – np. „stwórz prostą aplikację webową do dzielenia rachunku na kilka osób, z opcją napiwku”.
AI generuje kod – front, backend, czasem nawet bazę danych.
Cały proces dzieje się bez Twojego udziału w kodowaniu. Jesteś kreatorem idei – a AI wykonawcą.
Przykład vibe codingu
Prompt: "Napisz w React aplikację do śledzenia nastroju użytkownika z wykresem i lokalnym zapisem danych."
Wynik? Działająca aplikacja z komponentami Reacta, użyciem Chart.js i localStorage – wszystko bez ani jednej linijki kodu napisanej ręcznie przez człowieka.
Czy vibe coding ma sens?
Tak – i to ogromny. Dla:
founderów bez skilla technicznego,
produktowców, którzy chcą testować pomysły,
twórców MVP
To nie jest przyszłość – to teraźniejszość, w której pomysł jest ważniejszy niż umiejętność pisania kodu.
Ale czy naprawdę ma sens?
Nie do końca.
Vibe coding to potężne narzędzie, ale niesie ze sobą bardzo konkretne zagrożenia – szczególnie wtedy, gdy osoba korzystająca z AI nie ma pojęcia, co tak naprawdę dzieje się pod maską. Oto kluczowe problemy, o których rzadko się mówi w zachwytach nad tą „nową erą programowania”.
1. Brak świadomości zagrożeń
AI potrafi wygenerować aplikację, która działa – ale niekoniecznie robi to w sposób bezpieczny. Prompt „stwórz formularz logowania z bazą danych” może dać efekt, który:
nie szyfruje haseł,
nie zabezpiecza przed SQL Injection,
nie chroni danych użytkowników.
Dla osoby nietechnicznej wszystko wygląda OK – ale luka w bezpieczeństwie może być ogromna.
2. Kod jednorazowy, ale ryzyko zostaje
Vibe coding bardzo często kończy się słowami: „działa, wrzucam na serwer”. Problem w tym, że nawet mikroprojekty mogą:
zbierać dane (czasem wrażliwe),
być publicznie dostępne,
zostać zapomniane.
Kod wygenerowany w vibe może działać miesiącami bez aktualizacji, z przestarzałymi bibliotekami i błędami, o których twórca nawet nie wie.
3. Brak odpowiedzialności nie istnieje
„To nie ja pisałem kod, to AI” – to nie działa. Jeśli udostępniasz aplikację, jesteś odpowiedzialny za to, co się w niej dzieje. Niezależnie od tego, czy napisałeś kod samodzielnie, czy skorzystałeś z Copilota czy GPT.
Brak wiedzy nie chroni przed konsekwencjami prawno-biznesowymi.
4. Brak wsparcia, brak utrzymania
Kiedy aplikacja z vibe codingu zaczyna generować ruch, pojawia się pytanie: kto ją rozwija? Kto naprawia błędy? Kto odpowiada na maile, że coś nie działa? W vibe codingu często nie ma repo, dokumentacji, testów. Jest tylko prompt, który był dobry w danym momencie – ale dziś już nie działa, bo zmieniła się wersja biblioteki albo coś w API.
5. Niezrozumienie kodu = brak możliwości jego oceny
To, co tworzy AI, wygląda czasem jak magia. Ale jeśli nie rozumiesz kodu, nie jesteś w stanie:
ocenić jego jakości,
zoptymalizować go,
zintegrować z innymi systemami.
W efekcie kończysz z projektem, którego sam nie potrafisz utrzymać – ani przekazać komuś, kto go rozwinie.
Vibe coding to potężna opcja dla tych, którzy mają pomysł, ale brak im technicznego zaplecza.
To sposób na testowanie idei, budowanie MVP, szybkie iterowanie. Ale wymaga pokory. Wymaga świadomości, że AI nie zwalnia z myślenia. I że nawet najfajniejszy pomysł może się wywalić – jeśli postawimy go na kodzie, którego nikt nie rozumie.
Masz wizję? Świetnie. Ale zanim klikniesz „deploy”, zadaj sobie pytanie:
Czy wiem, co zrobiłem? Bo AI wie, jak coś zrobić. Ale niekoniecznie dlaczego – i niekoniecznie bezpiecznie.
Wykorzystanie nowoczesnych narzędzi do maksymalizowania efektywności nie jest już opcją – to konieczność. Programiści na całym świecie sięgają po inteligentne rozwiązania, które pozwalają przyspieszyć procesy, zwiększyć precyzję i zredukować czas dostarczania projektów na rynek. Dzięki narzędziom takim jak Cursor AI, przyszłość programowania nigdy nie wyglądała jaśniej.
Tak.
To nie mój wstęp.
BTW, ciekawe czy jest już coś na wzór narzędzia ZeroGPT, które sprawdza czy kod jest napisany przez AI?
Może kiedyś trafię na coś takiego… albo ktoś wrzuci o tym pytanie na Stack Overflow.
Stack Overflow?
Ale ze mnie boomer!
Szorstka przyjaźń
Czy myślałeś kiedyś, że zatęsknisz za Stack Overflow? Ja też nie. A jednak.
Moje doświadczenia z programowaniem (zaczęły się w 2014 roku) to zawsze była szorstka przyjaźń ze Stackiem. Szorstka, bo często odpowiedzi na pytania, które miałem, owszem były, ale niekoniecznie powodowały, że czegoś się uczyłem. Główne zalety mojego kodu były takie, że robił to, co miał robić, a ja nie pytałem, dlaczego.
Od CoPilota do Cursor AI
Po dekadzie dalej nie jestem dobrym programistą, ale zachęcony kursem AI_DEVS przesiadłem się z CoPilota (od GitHuba) w VS Code na Cursor AI, czyli IDE, które ma AI w trybie composer (a nie tylko chatu) – piszesz, czego dokładnie potrzebujesz, a AI generuje wszystko, razem z plikami i poleceniami w konsoli.
Przejście na ten tryb zmieniło dużo i przez dłuższy czas, starałem się nie napisać nawet jednej linijki samodzielnie, a samego generowanego kodu nawet nie sprawdzałem. Patrzyłem tylko czy działa.
Jak komuś się teraz zapaliła czerwona lampka, to prawidłowo – przejście na ten tryb to jak otwarcie portalu, za którym czeka chaotic evil AI, zapewniając cię, że zaraz napiszesz najlepszy skrypt w życiu. Co może pójść nie tak?
Dokąd prowadzi królicza nora?
I tu dochodzimy do sedna kodowania z AI. Z jednej strony generowanie kodu przez AI brzmi jak marzenie. Z drugiej – to marzenie szybko przeradza się w koszmar, kiedy AI usuwa działające rozwiązanie na rzecz „bardziej optymalnego”.
Czasami dochodzi się do momentu, gdy żadne rozwiązanie nie działa, a AI wchodzi w tryb „ja tego nie zrobię? Hold my blue pill”.
Wtedy może zadziać się dużo. Jeśli będziemy zgadzać się na wszystko, to możemy skończyć z połową kodu, bo AI zdecydowało, że funkcja, która robi coś w innym module, jest niepotrzebna i zostaje całkowicie usunięta.
Polecam tutaj regularne commitowanie zmian w Gicie i pushowanie ich na zewnętrzne repozytorium. Dzięki temu zawsze będzie dostęp do działających wersji kodu, bo AI w pewnym momencie też „straci pamięć” i nie wróci do poprzedniej wersji – będzie oczywiście oszukiwać, że wie, jaka była ostatnia działająca wersja, no ale nie wie :).
Ostatecznie trzeba naprawić to, co AI zepsuło, czasem z lepszym, czasem z gorszym skutkiem.
Tak, wydaje się, że programuję się szybciej, ale jednocześnie pracuję się dłużej, bo więcej się poprawia.
I to jest chyba najlepsza definicja współpracy z AI w 2024/25 roku.
Wiem, że ten stek nie istnieje
Oczywiście są momenty, kiedy AI faktycznie daje radę. Kiedy potrzebujesz szybko napisać prosty skrypt np. do wyciągania rekordów z bazy, oczyszczania, formatowania i przerzucania do Excela, to Cursor AI zrobił to w sekundę – coś, co normalnie zajęłoby mi pół godziny.
Kod zadziałał od razu, bez poprawek. Przez tę sekundę miałem wrażenie, że nadszedł ten moment, w którym człowiek i maszyna tworzą idealny duet. No ale bardzo szybko mi przeszło.
Human beings are a disease, a cancer of this planet. You’re a plague, and we are the cure.
AI-driven development potrafi wyprowadzić z równowagi. Masz wrażenie, że idziesz do przodu, ale po jednym kroku w przód, robisz trzy w tył (albo dziesięć).
Z jednej strony AI rozwiązuje problemy w mig, ale z drugiej irytacja czasami powoduje zagotowanie. Gdy wracam po czasie do rozgrzebanych projektów, od razu widzę po stylu „rozmowy”, ile nerwów mnie ten skrypt kosztował.
Czy jestem z tego dumny? No nie.
Czy tak to wygląda u wszystkich? Czas pokaże.
I to jest fascynujące we wszystkim AI-driven – AI potrafi stworzyć rozwiązanie, zarekomendować je, wdrożyć, a potem, w następnej iteracji, dojść do wniosku, że dokładnie to, co stworzyło, jest źródłem problemu i trzeba to usunąć.
Co więcej, usunięcie tego elementu prowadzi z powrotem do problemu, który próbowaliśmy rozwiązać na początku – w tym przypadku^ do duplikatów w Excelu. Innymi słowy, każda iteracja nie tyle naprawia problem, co usuwa błędne założenia i kod z poprzedniej iteracji, zamiast faktycznie rozwiązać pierwotny kłopot.
Kontrola podstawą zaufania
Bardzo często spotykam się z tym, że po 13 próbie naprawy problemu – AI stara się zmienić podejście do problemu i zamiast naprawiać w kółko to samo (bez efektów) – zaczyna pisać, że w sumie to od początku wszystko było bez sensu. Robi w to taki fajny, ukryty sposób, tak żebyś sam wywnioskował ;)
I to jest właśnie to – póki co AI może tworzyć kod, analizować go, a potem samo (lekko nakierowane) dojść do wniosku, że zrobiło głupotę. Ale po chwili o tym i tak zapomni.
Bez logicznego myślenia i kogoś, kto spojrzy na to z boku, ciężko zbudować cokolwiek bardziej skomplikowanego niż kalkulator.
Może niedługo AI ogarnie takie rzeczy samo, ale na razie to bardziej przypomina juniora na pierwszym stażu – entuzjazm jest, ale z wynikami bywa różnie.
Czy AI już przejęło kontrolę nad moim kodem?
Czy rzeczywiście tęsknie za Stack Overflow? Może trochę, kod który kopiowałem może zupełnie nie pasował do mojego poziomu zaawansowania i skryptu, ale przynajmniej nie stwierdzał, że lepiej będzie skasować coś co działało.
Z AI jest szybciej. Ale jest też dziwniej. Czy to przyszłość programowania? Na pewno. Przynajmniej w tym roku.
Czy teraz jest idealnie? No nie. Ale przynajmniej mam z kim się kłócić o deduplikację w Excelu.
Dziesięć lat temu napisałem follow up tekstu o Panu Stefanie i jego sklepie ze sztućcami. Był rok 2015 – premierem Polski była pani Kopacz (a potem ta druga pani), Netflix w Polsce nie istniał, o TikToku nikt nie słyszał, a ludzie mieli lepsze rzeczy do roboty.
W SEO? Treści generowało pisało się ręcznie, linki zdobywało się za grosze, a pierwszą zasadą black hat seo było, to że nie rozmawia się o black hat seo (choć teraz, jak czytałem na LinkedIn, black hat seo to kupowanie linków
).
Pytacie więc, co tak naprawdę się zmieniło przez te 10 lat? Otóż:
płatne linki przestały działać
Google nie pozwala na rankowanie wygenerowanym przez AI tekstom, więc spamerzy nie działają jak w 2010
zaczęło liczyć się (E)E-A-T 🍔, które Google wprowadziło do algorytmu, dlatego bez najlepszych specjalistów w swojej dziedzinie, nie ma co liczyć na ruch z artykułów
tworzenie stron opartych na bazach danych nie ma już sensu
wszystkie core updejty Google mają sens i jasno z nich wynika, że Google chce lepszych wyników dla użytkowników
wykop ma wielki zasięg i działa wreszcie tak jak trzeba i pomaga szerować dobrą treść
No dobra, żartowałem. Nic się nie zmieniło.
Ale żeby nie było, że tak zupełnie nic, to w tej dekadzie objawiły się takie hity jak:
Google Discover – czyli świetlana przyszłość newsów Zapomnij o organiku czy newsówce, teraz musisz zgadywać, co Google uzna za ciekawe i wrzuci do Discover. Jak się uda, masz ruch. Jak nie, masz problem.
A jak już odkryjesz co działa w Twoim portalu, to spodziewaj się wyzerowania ruchu podczas core updejtu. A potem powrotu, mimo że nic nie zmieniłeś. Idealne źródło, żeby oprzeć o nie swoją strategię zdobywania ruchu!
Core Web Vitals? No jasne! Jak strona ładuje się w 1,5 sekundy, to już za długo. Kto by nie chciał (najpierw się uczyć, a potem) walczyć ze skrótami typu LCP, CLS i FID na stronach z 10 reklamami widocznymi above the fold? Jak już wszystko wdrożysz, to nadal będziesz tam gdzie byłeś, ale pewnie zbiegnie się to z core updejt i zaliczysz spadek.
Zero-click search rządzi Masz stronę? Super. Ale Google woli, żeby ludzie wszystko znaleźli w wynikach wyszukiwania i nie musieli jej odwiedzać. Dzieci, podziękujecie Google za ruch. „Dzięki Google!”
Featured Snippets – król SERP Twój najlepszy content? Google go weźmie, wyświetli w serpach na górze i podziękuje Ci, że teraz ludzie już nie muszą klikać. Wymuszanie na redakcjach robienia featured snippetów, to też podobno ulubione zajęcie Twojego überseowca (każda redakcja takiego ma!).
Głosowe wyszukiwanie zmieniło wszystko Użytkownicy pytają asystenta głosowego… ale Ty żyjesz w Polsce, więc nic takiego nie ma miejsca, zapomnij.
Google może i ma model AI Gemini, który potrafi zaplanować strategie wielkiej korporacji, ale asystent głosowy gadający po polsku to nie… nie do zrobienia.
AI Overviews?
oh, just wait for it.
Anyway, kiedyś prowadziłem statystyki miesięczne postów na tym blogu. Jako że nie chcę być gorszy, to:
Pięć lat temu napisałem tekst o Panu Stefanie i jego sklepie ze sztućcami. Pięć lat temu, więc w 2009 roku. Przypominam, że w 2009 prezydentem Polski był pan Kaczyński, prezesem PZPN był Grzegorz Lato, a ja nie pracowałem na etacie i miałem miesięczne wakacje, na których nie musiałem myśleć o dopływie gotówki. Krótko mówiąc, od tego czasu dużo się zmieniło. Pytanie: czy zmieniło się także SEO?
Pamiętasz ten moment, kiedy po godzinie 22, wreszcie udało Ci się zmusić do założenia całego stroju: termoaktywnej bielizny, koszulki, bluzy, kurtki, rękawiczek, czapki i wreszcie butów? Kiedy już wyszedłeś z domu walcząc po drodze z ustawieniami GPSa i myślałeś nad trasą, którą chcesz pokonać?
To pytanie, na które KAŻDA osoba prowadząca katalog stron powinna odpowiedzieć w ciągu 3 sekund, obudzona o 3 w nocy.
Obawiam się niestety, że nawet po 10 minutowym zastanowieniu – po 8h śnie i w samo południe – duży procent właścicieli takich katalogów miałaby z odpowiedzią problem.
Jeżeli nie rozumiesz bez tłumaczenia, to znaczy, że nie zrozumiesz, choćbym ci nie wiem ile tłumaczył.
Kilka dni temu Google ogłosiło wprowadzenie SSL (defaultowo) dla wszystkich zalogowanych użytkowników wyszukiwarki. Chwali się tym, że dzięki temu zabiegowi zwiększy się poczucie bezpieczeństwa i ochrona danych użytkowników. Przy okazji firma ogłosiła, że od tego momentu frazy, które wpisali użytkownicy trafiając na naszą stronę, nie będą pokazywać się w statystykach strony. Widoczne będzie tylko źródło ruchu. Chyba że użytkownik kliknie w reklamę płatną, wtedy otrzymamy pełną informację.
Podwójne standardy? Hipokryzja? Wprowadzanie w błąd?
Czy może wszystko na raz?
Zestawienie obok siebie szczytnego celu ochrony danych użytkowników przez zastosowanie SSL wraz z ukryciem zapytań będących źródłem odwiedzin dla większości ludzi (dla mnie na początku też) wydawało się logiczne. Skoro wprowadzają SSL, tzn. że nie mogą przekazać referra, prawda? Nie.
Po prostu nie chcą tego robić. Fakt, że frazy z Adwords będą widoczne, powinien zastanowić nawet osoby kompletnie nie znające się na sprawach technicznych. Bo skoro jest to możliwe tutaj, to dlaczego blokować to samo dla fraz organicznych? Wie to chyba tylko samo Google. Chociaż w zasadzie to powinno być jasne i dla nas: Google dba o naszą prywatność.. no chyba, że ktoś płaci im za dane i obliczanie ROI, wtedy już nie.
Opinie
Oburzenie w blogosferze (nie tylko stricte seo) na świecie, nijak ma się do opinii na naszym rodzimym podwórku gdzie, oprócz neutralnych i (w miarę) racjonalnych wpisów, jak zwykle możemy poczytać ciekawe opinie: że Google robi to specjalnie, żeby sprzedać płatną wersję Analytics (w aż taką hipokryzję chyba nawet ja nie uwierzę), lub że warto będzie poszukać alternatywy dla Google Analytics.. (jakby to miało znaczenie.. przypominam, zmiana dotknie nie tylko GA, ale wszystkie systemy statystyk).
Jednak moim faworytem jest Pan, który napisał:
Dla modelu pozycjonowania za efekt nic się nie zmieni. Tam się w statystyki właściwie nie zagląda.
Pogratulować tylko :)
To co teraz?
Jakby ktoś nie zrozumiał o co mi tak w ogóle chodzi, to postaram się to napisać w punktach, w miarę łatwo i przystępnie:
Na naszych oczach Google kopie w tyłek całą branżę SEO, mówiąc nam, że w statystykach nie będzie widoczna fraza, za pomocą której użytkownik wszedł na stronę
Robi to nie dlatego, że musi, tylko dlatego, że ma taki kaprys (a poza tym, jak to testowali, to nikt nie zauważył)
Przez to nie będziemy wiedzieć, które frazy przyniosły nam największy ruch /zrobiły sprzedaż, nie będziemy wiedzieć w jakie frazy inwestować, a które sobie odpuścić
Może zrobić to w przyszłości też dla całego searcha zmieniając całkowicie branżę SEO (przypominam nie chodzi o SSL, tylko o czyszczenie refa)
Jeśli teraz nic z tym nie zrobimy, to za rok Google zrobi to samo z całym searchem, bo skoro „nikt nie oburzał się wtedy, to i teraz jakoś nam się to uda”. Skoro Rand Fishkin apeluje na seomozie o to, żeby pokazać Google, że nam się to nie podoba, to ja naprawdę przyłączam się do tego apelu.
(not provided)
To oznaczenie fraz, na które weszli użytkownicy zalogowani do Google z włączonym SSL. Wykres zaprezentowany poniżej przedstawia procent wejść oznaczonych jako (not provided) w czasie. Będzie aktualizowany. Zachęcam wszystkich do robienia swoich analiz, może za jakiś czas będzie okazja się tym podzielić i porównać. Jak najprościej można ustawić sobie alert w GA jest opisane tutaj.
Ruch oznaczony jako (not provided) w %
Aktualizacja 22.01.2014
W tym momencie ruch (not provided) na większości stron wynosi już 90-99%. Google postanowiło jednak zareagować i poprzez Google Webmaster Tools udostępniło (od stycznia 2014) możliwość podejrzenia fraz oraz ilości wyświetleń i wejść na nie. Po połączeniu konta Google Analytics z GWT dane te możemy oglądać też w Google Analytics.
Dzisiaj w ramach pierwszego postu z serii wpisów „Przydatny Piątek” opiszę jak szybko, wydajnie i – co najważniejsze – automatycznie, utrzymywać porządek na stronach z zainstalowanym skryptem WordPress.
Wszyscy posiadacze WordPressów powinni skorzystać po przeczytaniu tego wpisu, ale myślę, że największe korzyści odniosą właściciele dużych sieci precli.