Radio czyli muzyka

Będzie trochę rozważań o muzyce. Powodem do rozważań i powstania wpisu jest radio WSQK The Squawk, podrzucone przez kumpla z roboty. Sama stacja związana jest emisją ostatniej, piątej serii serialu Stranger Things produkcji Netfliksa. Podziała tymczasowo i zakończy nadawanie 1 stycznia 2026, dzień przed emisją ostatniego odcinka. Co grają? Muzykę związaną z serialem, muzykę z epoki (i nie tylko), reklamy nawiązujące do wcześniejszych sezonów.

Child in time, Superhuman Stranger Things Verision

Wiral, robienie klimatu? Zapewne. Trzeba jednak oddać Netfliksowi, że umie robić klimat[1]. I dobrze używa do tego muzyki. Także nowych wersji starych utworów. Z naszego podwórka, kiedyś coś podobnego zrobiło Allegro w ramach cyklu Legendy polskie. Wtedy też odświeżono – całkiem zgrabnie – kilka utworów. Jednak to co mnie uderzyło po włączeniu stacji WSQK, to fakt, że ta stacja bardzo mi pasuje do słuchania przy pracy.

Nie jest perfekcyjnie. Poza oczywistą wadą w postaci tymczasowego charakteru stacji, są inne. Techniczna, to konieczność słuchania w przeglądarce. Ani mplayer, ani vlc nie radzą sobie ze strumieniem. Tymczasem dla mnie odtwarzanie z konsoli to praktycznie podstawowy wymóg. No i od razu ładna historia utworów się robi na potrzeby dodania do streamingu. Ale skoro tymczasowe, to dam radę. Z kolei jeśli chodzi o repertuar, to utwory dość często się powtarzają. I to chyba tyle wad. Nie zmieniają faktu, że od paru dni radio WSQK towarzyszy mi podczas pracy przez ładnych parę godzin dziennie od kilku dni. I zapowiadają się kolejne.

Właśnie tak się składa, że ostatnio stwierdziłem, że ani Radio Nowy Świat, ani Radio 357 mi nie wystarczają. Znalazłem co prawda jakieś alternatywy[2], które testuję, ale żadna nie siadła mi tak jak WSQK. Dokładnie czegoś w tym stylu (chodzi o proporcję gadania, muzyki, nawet reklam) szukam. Wolałbym coś bardziej współczesnego, rzecz jasna. Albo, dokładniej, ze współczesnymi elementami. I pewnie ambitniejszego. Ale gdyby wziąć RNŚ czy R357 i zamienić wszystkie gadane audycje czymś takim jak WSQK, to wyszłoby IMO na plus.

I tu druga część wpisu, bo Spotify opublikowało ludziom podsumowania roku 2025. Sporo znajomych ma wiek muzyczny o wiele wyższy, niż rzeczywisty. Zastanawiam się, z czego to wynika i jakiej muzyki słuchamy naprawdę. Bo okazuje się, że większość granych w WSQK utworów znam ze słyszenia wcześniej.

Tak sobie myślę, że teoretycznie utwór z danego roku może przyjąć jeden ze stanów: niezauważony (nisza), dość popularny ale tylko chwilowo, bardzo popularny chwilowo (znak czasów), wejście na stałe do kanonu. Stan pierwszy to zapomnienie. Stan drugi – podobnie, choć może pojawić się w formie sampli czy coverów. Stan trzeci – pewnie będzie grany w nawiązaniach, spora szansa na covery czy sample. No i ostatni – będzie grany przez dekady.

Kolejna sprawa – kiedyś gwiazdy świeciły jaśniej. Może się mylę, ale kiedyś zespołów grających na poziomie zawodowym, granych w mediach było po prostu mniej. Obecnie każdy może łatwo nagrywać na profesjonalnym poziomie, ale jednocześnie trudniej dotrzeć do „wszystkich” słuchaczy.

Dlatego „stary” utwór ma więcej okazji, by pojawić się w naszej świadomości czy na playliście. Może być grany jako znak czasów w audycji, przypomniany jako cover, wykorzystany w firmie. Wreszcie przypomniany przy okazji śmierci któregoś z dawnych członków zespołu. I przy każdej takiej okazji może „wpaść w ucho” i trafić na playlistę, by potem powracać.

[1] W Poznaniu jeździ tramwaj Netflix, spróbuję się przejechać, jeśli nie zapomnę…
[2] Z godnych wymienienia – rockserwis.fm Zapowiadał się dobrze, ale trochę zbyt niszowo i monotematycznie jest, jednak.

GitHub backup

Od dłuższego czasu poruszany jest w różnych miejscach temat niezależności technologicznej od firm z… innych obszarów prawnych, że tak to ujmę. W szczególności chodzi o firmy spoza Europy. Jest też – nieco niezależny, choć w praktyce często zbieżny – temat uniezależnienia się do wielkich korporacji. Bo jakoś tak się złożyło, że wielkie korporacje nie są europejskie.

Przyznaję, że kibicuję obu tematom. I o ile nie czuję, że muszę koniecznie już teraz przenieść wszystkie zabawki do Europy, to… chcę mieć w razie czego taką możliwość. Pomału się rozglądam, wykonuję pewne drobne – póki co – ruchy. W szczególności jeśli z jakiegoś powodu rezygnuję z jakiejś usługi, to szukam alternatywy w Europie.

Tyle kontekstu, ale przecież miało być o backupie GitHub. Jak powszechnie wiadomo, jest to usługa Microsoftu, czyli podlegająca prawu USA. I w dodatku należąca do jednej z największych korporacji na świecie. Znaczy mogą zrobić z kodem co chcą, w tym… zniknąć go. Zamknąć dowolne konto. Usunąć dowolne repozytorium (i wszystkie jego forki). Bo tak.

Zapewne się to nie wydarzy, jeśli chodzi o moje repozytoria ale… Nie wiadomo. Bo już różne rzeczy były z GitHub usuwane. Więc ktoś kiedyś może wpaść na pomysł, że np. bruteforce PESELi to groźne narzędzie i trzeba repozytorium – albo i całe konto – usunąć. Wolę więc mieć możliwość przywrócenia swojego kodu z backupu. Backup serwerów i tak robię, wiele własnego kodu nie mam. Więc zrobienie kopii repozytoriów do katalogu, który jest objęty backupem wygląda jak proste, lekkie rozwiązanie.

Jeśli chodzi o ewentualne zastępstwo dla GitHuba, wybrałem popularną alternatywę w postaci europejskiego Codeberg.org[1]. Na którym i tak założyłem już wcześniej konto z uwagi na pewien pull request, który chciałem zrobić.

Repozytoriów trochę mam, są one publiczne, więc postanowiłem zautomatyzować robienie backupu, żeby nie musieć pamiętać o dodaniu każdego nowego repozytorium do skryptu robiącego backup. Po prostu robię backup wszystkich publicznych repozytoriów należących do danego użytkownika GitHub. Oczywista konsekwencja – i wada rozwiązania – jest taka, że jeśli zrobię fork jakiegoś większego projektu, to także on trafi do backupu. Jednak nie jest to częsta sytuacja, a nawet te większe projekty nie są aż tak duże, żeby mi to przeszkadzało.

Skrypt github-backup jest – jak widać – bardzo prosty. Wymaga zewnętrznego programu git i tylko jednej biblioteki – requests. Zasada działania skryptu github-backup jest prosta. Przechodzimy do katalogu ze skryptem. Podajemy usera jako parametr. W katalogu, w którym jest uruchamiany skrypt, najpierw tworzony jest katalog o takiej nazwie, jak nazwa użytkownika[2]. Następnie pobierana jest lista publicznych repozytoriów użytkownika. A w końcu dla każdego z nich tworzona jest kopia przy pomocy zewnętrznego polecenia git clone –mirror. I tyle. Tak utworzone kopie można przywrócić na innym serwerze przy pomocy git push –mirror. Przykład w readme.

Skrypt ma wady, których nie potrzebowałem poprawiać. Po pierwsze, robi mirror do bieżącej lokalizacji. Nie jest to problem przy planowanym użyciu, czyli z użyciem cron – po prostu wcześniej trzeba zmienić katalog. Po drugie, nie obsługuje prywatnych repozytoriów. Cóż, trochę nie miałem takiej potrzeby. Poza tym, o ile dodanie klucza, który ma do nich dostęp w trybie odczyt nie jest problemem, to nad listowaniem musiałbym się zastanowić[3]. Może kiedyś, bo jak wspomniałem, obecnie nie mam takiej potrzeby.

Plany rozwoju skryptu? Dodanie obsługi innych platform przydało by się najbardziej, bo żaden dostawca ani jurysdykcja nie dają gwarancji, że konto czy repozytorium nie zniknie. Przy czym pewnie w najbliższej przyszłości skończy się na Codeberg, bo tylko tego aktualnie używam i będę miał jak przetestować. Może jednak dodanie obsługi prywatnych repozytoriów?

W każdym razie jeśli rozwiązanie komuś się przyda, to zachęcam do używania. I oczywiście robienia backupów, w tym przypadku własnego kodu. Niezależnie od metody.

UPDATE: To naprawdę prosty skrypt i główną zaletą jest brak potrzeby jakiegokolwiek uwierzytelniania, jeśli ktoś potrzebuje więcej, to istnieje np. ghorg.

[1] Ogólnie jest to serwis godny rozważenia, choć community o wiele mniejsze.
[2] Uwaga, najpierw jest usuwana cała zawartość katalogu o takiej nazwie, jeśli istnieje!
[3] No dobra, sprawdziłem, wystarczy dodać obsługę PAT (personal access token) i stosownie skonfigurować ich uprawnienia.

Krzyk Czarnobyla

Raczej nie piszę o przeczytanych książkach. Ostatnio przeczytałem[1] jednak książkę Czarnobylska modlitwa. Kronika przyszłości i uznałem, że zasługuje na wpis. Zacznijmy od tego, że nie wiedziałem, czego się spodziewać. Nie znałem ani – nieco kontrowersyjnej – autorki, choć noblistka, ani tytułu. Oczywiście sama nazwa Czarnobyl dawała jasną wskazówkę.

Szybko nadrobiłem zaległości na Wikipedii, dowiedziałem się też, że pierwotnie książka została wydana jako Krzyk Czarnobyla. Nadal nie wiem, czy to nie lepszy tytuł. Stąd oczywiście tytuł wpisu.

Zniszczony reaktor w Czarnobylu
Zniszczony blok reaktora w Czarnobylu Zdjęcie autorstwa IAEA Imagebank – 02790015, CC BY-SA 2.0

Książka powstała na podstawie wywiadów z ludźmi i pokazuje awarię (mniej) i jej skutki (bardziej) z perspektywy różnych ludzi, głównie mieszkańców Białorusi. Różnych ludzi. Bardzo różnych. Są rodziny ofiar, są likwidatorzy, osoby, które zostały w strefie, są wysoko postawieni działacze, naukowcy, lekarze… Sporo tzw. zwykłych ludzi.

Czego się dowiedziałem, o czym nie wiedziałem? Przede wszystkim, przed lekturą miałem wrażenie, że skażenie obejmowało strefę powiedzmy małych kilkudziesięciu km i dotyczyło wyłącznie Ukrainy. Tymczasem najbardziej w wyniku skażenia ucierpiała Białoruś (nawet 20% powierzchni kraju).

Kolejna rzecz, o której nie wiedziałem, to fakt, że awaria i jej skutki były zatajane przed ludnością. Nie chodzi tylko o likwidatorów, którzy w prowizorycznych ochraniaczach (albo i bez nich) walczyli z bezpośrednimi skutkami wybuchu. O ile w Polsce poinformowano o awarii i podano ludziom roztwór jodu[2], to w ZSRR tego nie zrobiono. Nawet, gdy były możliwości.

Zupełnym zaskoczeniem była dla mnie liczba ludzi zaangażowanych w skutki usuwania awarii. Myślałem, że mówimy o setkach, może tysiącach…

Jest też trochę szokujących informacji o tym, jak wykonywano plan, czyli siano, sadzono ziemniaki i przetwarzano skażone mięso. Były nawet instrukcje jak postępować przy określonym poziomie skażenia. Jest też o chciwości jednostek – domy ze skażonej strefy były szabrowane, a nawet rozbierane i przewożone w inne miejsca kraju, by je sprzedać. Podobnie samochody. Skoro mowa o chciwości – warto pamiętać, że reaktory RBMK, czyli typu używanego w Czarnobylu, były najbardziej efektywnym typem. Choć też najbardziej niebezpiecznym.

W książce znaleźć można sporo krytyki ZSRR i polityków czy też raczej rządzących. Sporo o działaniach, by się komuś nie narazić, sporo o tak trzeba. W tym o ignorowaniu procedur i braku poszanowania dla ludzkiego życia.

Nie jest to lekka lektura, znaczna część to opisy chorób, śmierci itd. Podczas lektury miałem trochę skojarzeń z pandemią i wrażenie, że niczego się – jako ludzkość – nie nauczyliśmy. Ani na poziomie zachowań pojedynczych ludzi, ani w kwestii przygotowania służb, ani działań na poziomie państwowym, ani informowania społeczeństwa. Podobny jest też podział na przed pandemią i po pandemii, tak jak przed katastrofą i po katastrofie.

Zdecydowanie warto się zapoznać, choć jest to też książka uświadamiająca jak niebezpieczna jest energia jądrowa. I o tym, że mimo zabezpieczeń, różnego rodzaju wypadki będą się zdarzać. Ludzie popełniali, popełniają i będą popełniać błędy.

Niezwiązana z książką informacja, ale: akurat gdy skończyłem lekturę, dotarła do mnie informacja, że w wojnie w Ukrainie została zabita żona pierwszej ofiary awarii w Czarnobylu.

[1] Tak naprawdę przesłuchałem audiobooka w Legimi. Kiedyś rozdawali sporo kodów, a nie zawsze chcę używać oczu i wtedy ich używam.
[2] Możliwe, że w Polsce było to zbędne, ale nie zaszkodziło.