Zmiany algorytmów Google

W wielu miejscach ludzie narzekają, że Google zmieniło algorytmy, ich strony spadły w rankingu, choć stosowali się do zaleceń Google, a biznes upada. To oczywiście smutne, tylko nie do końca widzę w tym winę Google. Oparcie biznesu o jednego partnera było świadomą decyzją. Stosowanie się do zaleceń Google w sprawach SEO nigdy nie dawało gwarancji, że zawsze będzie dobrze, prawda? Gwarancji, że te zalecenia się nie zmienią też nie było. Gdyby tylko w jakiś sposób dało się przewidzieć, że gigant będzie kierował się wyłącznie własnym zyskiem…

Zmiany i błędy

Błędy się zdarzają. Zmiany też. Uzależnianie się od jednego dostawcy zawsze jest poważnym ryzykiem. Nawet, jeśli dostawca wydaje się duży i solidny[1]. Zresztą, akurat Google od dawna pokazuje apetyt na to, by korzystać z czyjegoś dorobku, niekoniecznie dzieląc się zyskiem. Pamiętacie Accelerated Mobile Pages? Już wtedy twórcy treści narzekali, że ruch klientów nie trafia do nich i tracą zyski z reklam. Reklam Google, oczywiście. No ale skoro Google mogło dostarczyć ludziom wynik wyszukiwania AKA content, w dodatku od siebie, to po co miałoby przekierowywać klienta na źródło i płacić za wyświetlenia/kliknięcia w reklamy? A jeszcze osoba, która szukała gotowa dodać stronę do bookmarków i nie skorzystać następnym razem z wyszukiwarki, gdzie Google może mu wyświetlić reklamy w wynikach wyszukiwania… No czysta strata przecież.

Błędy zdarzają się i grubszego kalibru, nawet przy płatnych usługach. Bo indeksowanie i pokazywanie w wyszukiwarce jest bezpłatne i bez żadnych dwustronnych umów i gwarancji. A przecież zdarzyło się zablokowanie i usunięcie usług, za które płacono. Oczywiście z danymi[3].

AI

Przeżywamy właśnie zachłyśnięcie się AI[2], które pakowane jest dosłownie wszędzie. Czy ma to sens, czy nie. Jest to symbol/synonim nowoczesności, więc pewne było, że wyniki wyszukiwania też będą to wykorzystywać. Zresztą, Bing zrobił to już dawno. Głośno robi się o błędach wyszukiwarek opartych o AI. Oczywiście, takie błędy są. I pewnie będą, szczególnie, że wiemy, że LLMy lubią halucynować. Ale… w tradycyjnych wyszukiwaniach też były. Tylko po prostu nikt raczej nie robił afery, gdy link był nieadekwatny czy zawierał błędne informacje. No chyba, że w wynikach wyszukiwania, tłumaczenia albo na Google Maps znalazło się coś godzącego w znaną osobę lub instytucję. Wtedy było trochę śmiechu i szybka korekta. I jakoś nikt nie robił afery.

W sumie zastanawiam się, kiedy do ludzi dotrze, że LLMy są niezłe odtwórczo, ale niespecjalnie są w stanie coś nowego wymyślić. I tak naprawdę żerują na tym, co ludzie wymyślili wcześniej. I bez dostępu do tych danych są niczym. Można obserwować bunt twórców treści w serwisie Stack Overflow. Ciekawe kiedy powstanie zdecentralizowana, szanująca autorów alternatywa…

Zmiany algorytmów Google

Dla jasności – sam obserwuję zmiany algorytmów w Google u siebie na blogach. Pozycje i liczby odsłon w Google webmaster tools zmieniły się istotnie, liczba wejść – mierzona niezależnie – spadła. Też istotnie. Wszystko to zaczęło się w ostatniej dekadzie kwietnia 2024. Odnotowuję z kronikarskiego obowiązku, bo nie ma to dla mnie żadnego znaczenia. I po części pewnie kwestia pogody.

Wyszukiwarki

I na zakończenie nie całkiem nie na temat: DuckDuckGo nie działało podczas awarii Bing. Wiedziałem, że korzystają z ich wyników (od czasu rozwiązania/zawieszenia współpracy z Yandex – chyba już tylko z nich), ale w obecnej sytuacji poszukam jakiejś alternatywy dla podstawowej wyszukiwarki. Świata to nie zmieni, bo i tak jestem multiwyszukiwarkowy – często sprawdzam wyniki w 2-3, poza tym, na różnych komputerach mam różną domyślną, ale spróbować można. Póki co silnym typem jest Qwant – działający na europejskich, bardziej sprzyjających prywatności, zasadach.

[1] A może „zwłaszcza”? Jak głosił slogan z pewnej reklamy duży może więcej. Podmioty o dużym udziale na rynku będą miały tendencję do monopolu/oligopolu, bo taki jest naturalny trend ekonomiczny. A że monopol nie służy klientom, to wiemy. Pytanie tylko czy i kiedy taki duży dostawca zechce skorzystać ze swojej pozycji.
[2] Gdzie chwilowo AI = LLM, co do prawdziwej sztucznej inteligencji ma się nijak.
[3] Już po opublikowaniu tego wpisu Google zamieściło oficjalne stanowisko w tej sprawie. Są pewne rozbieżności, np. podobno backupy nie zostały usunięte. Ale mimo to do przywrócenia wykorzystano zewnętrzne backupy. Hm!

UPDATE: Dodany link do stanowiska Google w sprawie usunięcia usług.

Halucynacje Antispam Bee

Uważni czytelnicy mogą pamiętać, że na blogu stosuję kilka metod zwalczania spamu w komentarzach. W kolejności od najbardziej ręcznych do najbardziej automatycznych będą to: ręczna moderacja, wtyczka Antispam Bee, hCaptcha oraz wycinanie IP znanych z nadużyć na poziomie iptables. Dziś będzie o wtyczce.

Wtyczka Antispam Bee radziła sobie nieźle. Wśród sporej ilości opcji, dotyczących tego jak rozpoznawać spam i co z nim dalej robić, posiada ona też możliwość generowania statystyk blokad spamu widocznych w dashboardzie WordPressa. Oczywiście korzystam, bo dzięki temu czytelnemu zestawieniu widzę, co w spamie piszczy bez konieczności wchodzenia w komentarze.

Do tej pory wyglądało to tak, że zerkałem na statystyki na wykresie, jeśli pojawiał się wzrost, to wchodziłem w komentarze i patrzyłem na IP z którego przyszedł spam i ogólnie zastanawiałem się, czy może trzeba coś ulepszyć. Oczywiście jeśli miałem wenę, bo blokady przez iptables, captchę czy wtyczkę Antispam Bee są totalnie bezobsługowe. Znaczy normalnie nie muszę w ogóle dotykać spamu, jedyne co robię, to zatwierdzam prawdziwe komentarze[1]. No i było tak, że jak wtyczka zgłosiła 2 zablokowane, to te 2 były w spamie w komentarzach. W każdym razie tak mi się wydawało – nie zauważyłem rozbieżności.

Problem

Po niedawnych zmianach w blokadach IP na poziomie iptables, ilość blokowanych spamów była stabilna i rekordowo niska – 1-2 próby dziennie. Jednak w pewnym momencie zobaczyłem coś takiego:

Statysytki Antispam Bee 22.03 – 06.05

Wzrost zaczął się 22 kwietnia i jest całkiem spory. Największa ilość widoczna na wykresie to 15 spamów. Postanowiłem poszukać, cóż to za IP i… spotkała mnie niespodzianka. Ostatni spam widoczny w komentarzach jest właśnie z 22 kwietnia. Po tej dacie nie mam żadnego komentarza uznanego za spam w bazie. A wtyczka Antispam Bee radośnie zgłasza.

Szukałem bezpośrednio w bazie, ale nie udało mi się znaleźć ani komentarzy uznanych za spam, ani miejsca przechowywania statystyk. Ostatecznie w ramach testu wyłączyłem wtyczkę na kilka dni i… przyszedł jeden spam do ręcznej moderacji. Przez kilka dni.

Rozwiązanie

Zastanawiałem się, co tu się stało i… chyba znalazłem rozwiązanie. Wszystko wskazuje na to, że wtyczka Antispam Bee jednak nie pozazdrościła AI i nie halucynuje. Ani nie próbuje pokazać, jaka jest przydatna uciekając się do przedstawiania fałszywych wartości. Chodzi o kolejność działania blokad. Antispam Bee działa przed czy też obok hCaptcha. Komenatrz, aby trafił do bazy WordPressa, musi mieć poprawnie rozwiązaną captchę. Jej brak nie przeszkadza jednak Antispam Bee w rozpoznaniu spamu i uwzględnieniu go w statystykach. Czyli ten wzrost to faktycznie próby wysyłki spamu z IP, które nie są na listach, ale nieudolne, nie uwzględniające tego, że na blogu jest captcha.

Wygląda, że trzeba się będzie przeprosić z wierszem poleceń przy wyszukiwaniu IP do blokowania, przynajmniej chwilowo. Stosowne polecenie:

egrep "POST.*wp-comments-post.php" access.log | grep " 400 " | awk '{print $1}' | sort | uniq -c | sort -n

Wtyczkę Antispam Bee polecam nadal. Jeśli ktoś jest ciekaw, czemu nie korzystam z Akismet, to odpowiedź znajdzie w tym wpisie.

[1] Tak się teraz zastanawiam, że działa to tak dobrze, że w zasadzie mógłbym wyłączyć moderację w ogóle. Z drugiej strony już przywykłem, a komentarzy nie ma zbyt wiele, więc żaden problem.

Ostatni odczyt

Byłby to ładny tytuł dla opowiadania powiedzmy science-fiction, ale tym razem chodzi o statystyki dotacji na Patronite dla Radio Nowy Świat oraz Radio 357. Blisko trzy i pół roku temu zacząłem zbierać statystyki dotacji. Tak zupełnie bez napinki i w prymitywny sposób – parsując HTML. Idea była prosta, parę dni później[1] wystartowało Radio 357 z regularnym nadawaniem, obie stacje zbierały dotacje na Patronite, chciałem zobaczyć jaką które radio ma dynamikę.

Zdechło

Dziś zajrzałem do wyników i okazało się, że zdechło. Podwójnie. Po pierwsze, skrypt przestał prawidłowo zbierać dane. I to dość dawno temu, ale ponieważ nie zaglądałem, to zorientowałem się dopiero teraz. Było do przewidzenia, żadnego powiadamiania na wyjątek przy parsowaniu nie miałem przecież. Tym bardziej na błędne dane. Ot, zabawka. Poprawka okazała się trywialna trywialna, wdrożyłem, ale… Niestety, drugi powód jest taki, że Radio 357 przestało publikować na Patronite dane o zbiórkach.

Dlaczego nie widzę już liczników na Waszym profilu Patronite?
Licznik ten pokazywał tylko Patronów z Patronite. W momencie, gdy można opłacić patronat na więcej sposobów, ten licznik przestał oddawać stan faktyczny. Jeśli chcesz dowiedzieć się ilu Patronów wspiera radio, to tę liczbę znajdziesz na naszej stronie internetowej.

Tak informują na stronie zbiórki na Patronite.

Jestem nieco zaskoczony, że to nie Patronite decyduje o tym, czy dane są widoczne, ale w sumie nie ma to znaczenia – danych nie ma i tyle.

Ostatni wiarygodny odczyt miał miejsce w grudniu:

2023-12-17 12:00:03, radio357, 50075, 933463
2023-12-17 12:00:03, rns, 35061, 756537

Podsumowanie statystyk

Dla RNŚ był jeszcze jeden poprawny odczyt w lutym 2024. Niewiele się różnił. No bo właśnie, RNŚ w zasadzie stoi w miejscu zarówno pod względem ilości patronów, jak i dochodu. Dla przypomnienia, zaczęło się od 31 tys. i 690 tys.

Co innego Radio 357, tu były zmiany. Wg strony mają obecnie łącznie 50 tys. wspierających. Czyli tyle, ile było widocznych na Patronite w ostatnim odczycie. W zasadzie również nie ma wielkich zmian od roku, choć pamiętam, że w trakcie jakieś istotne wzrosty były.

Teoretycznie, skoro jest taka roczna już stabilizacja, to można by przyjąć, że takie są ostateczne wyniki i zamknąć temat. Takie rozwiązanie jednak mi się nie podoba, chętnie bym obserwował dalej. No ale nie ma jak.

Co dalej?

Poprawiony skrypt zbiera dane dla RNŚ. Publikacji statystyk w dotychczasowej formie już nie przewiduję. Może najwyżej raz do roku, jak mi się przypomni. Pewnie wkrótce wystawię plik CSV z zebranymi danymi – waham się jeszcze, czy wystawić go jednorazowo, czy live. Pewnie uzupełnię ten wpis o wykres z dynamiką dla obu stacji.

Tak w ogóle, to nie pamiętam kiedy słuchałem którejkolwiek z tych stacji[2]. Okolice Sylwestra, jednorazowo? To znaczy dziś włączyłem testowo na jakieś dwie godziny. Ale wrażenia miałem podobne jak ponad rok temu, gdy przestały mi się podobać – coś mi zgrzyta, coś mi nie pasuje. Wolę samą muzykę ze streamingu, niż audycje, szczególnie, że nie wszystkie są stricte muzyczne. Może była to dla mnie tylko rozrywka w okresie pandemii? A może spróbuję wrócić, ale już tylko do wybranych audycji? Zobaczymy.

Jednocześnie jest to prawdopodobnie koniec mikrobloga na Diasporze. Nie likwiduję, ale skoro znika jedyny temat, który się tam jako tako regularnie pojawiał to będzie on w zasadzie martwy. Można powiedzieć, że wytrzymał 9 lat.

[1] Wikipedia podaje, że stała ramówka od 5 stycznia 2021. I wierzę jej, ale wiem, że słuchałem już pierwszego stycznia, a przecież nie była to pierwsza audycja.
[2] Taka ciekawostka, mam krótki szkic notki z października 2020 dotyczący RNŚ, którego nie opublikuję. Radio 357 doczekało się wpisu.