Owsianka zwykła

Poprzednio było o owsiance proteinowej. Szukałem – nadal gotowej – alternatywy i nie sposób w sklepie nie zauważyć, że producent ma w ofercie także zwykłą owsiankę o nazwie Owsianka z ranka[1]. Cena to jakieś 1,69 zł. Większy wybór smaków, ale z testowanych nadal wygrywa malina z białą czekoladą. To dobrze, będzie łatwiej porównać. Tym razem skład wygląda następująco:

Składniki: 72,9% płatki owsiane, 10,5% cukier puder trzcinowy, 8% mleko w proszku odtłuszczone, 4% kawałki białej czekolady (cukier, tłuszcz kakaowy, mleko w proszku pełne, emuglator: lecytyny), 3,5% kawałki malin liofizowany, aromaty, tapioka.


składnik masa [g]cena [zł]udział [%]masa w porcji [g]ilość porcji w opak.koszt w porcji [zł]
płatki owsiane5002,9974,0048,1010,400,29
czekolada biała1004,004,002,6038,460,10
mleko w pr. Odtł.2509,888,005,2048,080,21
cukier puder trzcin5005,3910,506,8373,260,07
maliny lio.5025,703,502,2821,981,17
suman.d47,9610065n.d1,84

Lekko oszukałem w tabeli – brakowało mi 100%, więc dosypałem płatków, a cenę białej czekolady wziąłem na oko, bo Piotr i Paweł przez internet nie miał, a nie będę kupował tabliczki czekolady na Allegro – na pewno będzie w najbliższym sklepie.

Jak widać, jeśli chodzi o koszty, to tego wariantu zupełnie nie opłaca się robić samemu, przynajmniej nie w takim wygodnym wariancie z zamawianiem przez net – wyjdzie drożej, niż gotowiec. Jedyne na czym można oszczędzić, to mniej śmieci w postaci plastikowych kubeczków.

Niestety, ta wersja mniej mi pasuje niż proteinowa. Rozważam dosypywanie mleka w proszku lub WPC, albo zupełnie DIY. Tak czy inaczej, jak już znajdę idealny wariant, co raczej nieprędko nastąpi, to opiszę.

[1] Geniusz marketingu to wymyślał. Tendencja do ubezdźwięczniania się kłania…

Security score compare

Nazwa projektu jest nieciekawa, ale przyznaję, nie miałem weny. Za to mówi wszystko. Zaczęło się od porównywania punktacji na platformach do zabaw z security wśród znajomych z pracy. Szybko zeszło na to, że suche porównywanie wyników nie jest zbyt fajne, lepiej byłoby rysować wyniki w czasie.

I tak powstał skrypt w Pythonie, który pobiera wyniki z Root Me oraz RingZer0 Team Online CTF[1], parsuje HTML przy pomocy regexpa[2] i zapisuje do bazy SQLite. W innym trybie pobiera dane dla podanej platformy i generuje obrazek z wykresem punktacji. Taki jak poniżej:

Przykładowy ocenzurowany wykres generowany przez security score compare

Po drodze jest parę uproszczeń (typu dopełnianie braków zerami „od lewej”) i jest to bardzo wstępna wersja, ale działa i coś tam już widać. Strzelać z tego nikt nie będzie. 😉

Security score compare znaleźć można na GitHubie. Może komuś się przyda, albo nawet ktoś pomoże w rozwoju?

Jakby ktoś się zastanawiał, czemu ostatnio jest mniej wpisów na blogu, to tak, mam nowe zajęcie w czasie wolnym. 😉

[1] Nie są to wszystkie platformy na których się bawimy, ale te dwie są najpopularniejsze i… nie wymagają logowania, by sprawdzić punktację.
[2] Tak, wiem, ble i fuj. Ale działa.

Niedoszły reverse engineering owsianki proteinowej

Czasem jest tak, że polubię jakiś produkt. Tak było z owsianką proteinową Vitanella dostępną w Biedronce. 65g suchego produktu, sprzedawanego w plastikowym kubeczku za 2,99 zł, który wystarczy zalać gorącą wodą i za chwilę mamy porcję owsianki. Owsianka kojarzyła mi się zawsze z jedzeniem dla dzieci, a w domu zupy mleczne itp. raczej nie były popularne. Ten produkt jednak mi przypasował – lekkie syte jedzenie, idealne np. przed bieganiem. Zacząłem kupować[1].

Po pewnym czasie stwierdziłem, że 2,99 zł to może nie majątek, ale ciekawe ile kosztowałoby mnie wyprodukowanie takiej owsianki samodzielnie. Tym bardziej, że dostępna owsianka miała jeszcze dwie wady. Po pierwsze, jak smak malinowy mi pasuje, tak czekoladowy zdecydowanie nie, a innych smaków AFAIK brak. Gdybym robił samodzielnie, mógłbym łatwo modyfikować i robić inne smaki.

Po drugie, niezupełnie pasuje mi plastikowy kubeczek, który owszem, można wykorzystać do roślin, lub łatwo oddzielić plastik i papier i stosownie posortować śmieci, ale… po co je w ogóle generować? Równie dobrze mógłbym użyć ceramicznego kubka w domu, a następnie go umyć, nie generując plastikowych odpadów.

Składniki są podane na opakowaniu, udział procentowy RWS białka, węglowodanów, tłuszczu – również. Udział procentowy składowych w 100g danego składnika łatwo znaleźć. Układ równań i… gotowe. Przynajmniej taki był plan. Okazało się bowiem, że producent wprost podaje (zaczął podawać? zawsze było i nie zauważyłem? – nie wiem) udział procentowy składników na opakowaniu. Cytując:

Składniki: 49,9% płatki owsiane, 20,5% koncentrat białek mlecznych, 17% mleko w proszku odtłuszczone, cukier puder trzcinowy (cukier trzcinowy, tapioka), 4% kawałki liofizowanych malin, aromaty.

Z ciekawego wyzwania i tytułowego reverse engineeringu pozostało ustalenie ceny składników i proste przeliczenie w arkuszu kalkulacyjnym. Wpis zamieszczę, bo ciekawie jest zobaczyć ceny po latach. Nie chodziło mi o najniższe możliwe ceny, bardziej po prostu o oszacowanie, ile będzie kosztowało przygotowanie tego w domu, ale w maksymalnie zbliżonym wariancie. Za ceny przyjąłem ceny z internetowego sklepu Piotr i Paweł (łatwo wyszukać, spory wybór). W przypadku produktów, których tam nie znalazłem i których totalnie nie kojarzę ze sklepów stacjonarnych, przyjąłem ceny z Allegro, z dostawą (paczkomat lub coś podobnego), bo tak pewnie bym kupował. Tabelka poniżej:

składnik masa [g]cena [zł]udział [%]masa w porcji [g]ilość porcji w opak.koszt w porcji [zł]
płatki owsiane5002,9949,9032,4415,420,19
WPC70032,4020,5013,3352,530,62
mleko w pr. Odtł.2509,8817,0011,0522,620,44
cukier puder trzcin5005,398,605,5989,450,06
maliny lio.5025,704,002,6019,231,34
suman.d76,3610065n.d2,64

Samodzielne przygotowanie kosztuje jak widać 2,362,64 zł. Ku mojemu zaskoczeniu głównym kosztem nie okazało się WPC, tylko maliny. I to po zmianie malin z opakowania 30 g na 50 g – w tym pierwszym wariancie wychodziło IIRC 1,8 zł/porcja . Licząc jeszcze inaczej – gdyby kupić 1 kg płatków, na składniki wydamy ok. 80 zł i będziemy w stanie przygotować niecałe 20 porcji (ograniczą nas maliny), co da ok. 4 zł/porcja. Zdecydowanie taniej kupić gotowca.

Sytuacja rzecz jasna może się zmienić, jeśli zrezygnujemy z malin na rzecz innego składnika. Ale o tym następnym razem…

[1] Dla jasności – wpis nie jest pisany na zlecenie i nie otrzymuję za niego wynagrodzenia. Po prostu mi zasmakowało. 🙂

UPDATE: Czy można zrobić błąd w prostych obliczeniach w arkuszu? Ano można. Wystarczy pomylić wiersze w formule… Zaktualizowana wersja tabeli.

Blogi żyją

Pierwotnie ten wpis miał być komentarzem do wpisu o agonii blogów, jednak z racji rozmiaru i uporządkowania ew. dyskusji stwierdziłem, że bardziej pasuje jako samodzielny wpis.

Zamykanie kolejnych polskich platform blogowych nie jest koniec blogosfery. To zaledwie koniec platform blogowych jako takich. IMO je spotyka los podobny do shared hostingu, odkąd pojawiły się VPSy. Platformy tracą sens, bo:

  • i własny hosting, i domeny drastycznie potaniały,
  • platformy nakładają ograniczenia i/lub kosztują relatywnie dużo,
  • pojawiły się międzyplatformowe narzędzia do dzielenia się komentarzami dot. wpisów na blogach – FB, Disqus, itp.

Tego wszystkiego kiedyś nie było. Porównując z telefonami – nadal z nich korzystamy, ale kto ostatnio korzystał z telefonu stacjonarnego (i w dodatku nie VoIP), o budkach telefonicznych nie wspominając?

Wiele blogów ma się jednak dobrze. Niektóre mają się wręcz świetnie. Z polskiego podwórka na myśl przychodzą mi tu – tak od ręki zaufanatrzeciastrona.pl, sekurak.pl, niebezpiecznik.pl, majsterkowo.pl, jakoszczedzacpieniadze.pl czy subiektywnieofinansach.pl. Od strony technicznej te portale(?) to są blogi. I myślę, że zasięgiem biją na głowę najlepsze blogi sprzed lat dziesięciu lub więcej. A może i całe platformy…

Prawdą jest, że bariera wejścia w blogowanie wzrosła, jeśli porównać ją z innymi formami komunikacji, ale tak naprawdę jest łatwiej, niż kiedyś. Narzędzia są bardziej dopracowane, takiego WordPressa można postawić z tutoriala z wiedzą nie większą, niż potrzebna kiedyś do modyfikacji szablonu. To samo zjawisko dotyczy innych rodzajów twórczości – amatorskie zespoły muzyczne mają często dziś do dyspozycji rozwiązania, które kiedyś były dostępne wyłącznie profesjonalistom. Bardziej mam tu na myśli obróbkę dźwięku, niż instrumenty. Łatwiej jest stworzyć zdatną do wydania muzykę i ją wydać, niż kiedyś.

Zgadzam się, że konkurencja innych platform powoduje, że może nie być sensu pisać własnego bloga lub trudniej będzie się wybić. Jeśli nie będzie dobry, to nie będzie czytany, bo przegra konkurencję z innymi formami. To trochę jak z filmami – spróbujcie dziś obejrzeć jakieś arcydzieło sprzed 60 lub więcej lat. Albo serial sprzed 30-40 lat. To nie są złe filmy! Ale w bezpośrednim starciu ze współczesnymi, czy nawet nowszymi produkcjami na większą skalę nie mają szans. Treści do konsumpcji jest coraz więcej, doba ma nadal 24h, długość życia aż tak nie wzrosła. Trzeba wybierać, a warunki selekcji są coraz ostrzejsze.

Zresztą blogi same wspomagały Facebooka w dominacji rynku. Wielu blogerów założyło fanpage bloga, licząc na promocję, ale tak naprawdę dostarczali tylko dodatkowej treści FB i powodowali, że zaglądanie gdzie indziej miało jeszcze mniej sensu. Zresztą miałem o tym notkę – Facebook przejął rolę wielu serwisów, nie tylko blogów.

Nie upatrywałbym problemu blogosfery w próbach monetyzacji. Tak, też widziałem blogi, które poszły w komercję i straciły przy tym cały urok, ale – patrząc z perspektywy – wygląda mi to bardziej na odcinanie kuponów od czegoś, co było fajne, ale do czego straciło się serce i można albo zakończyć, albo zarobić przy okazji parę złotych. Sam bawiłem się w różne formy zarabiania na blogu, a nawet miałem o tym notkę. IMO nie dało się na blogu bezpośrednio zarabiać. Nawet biorąc poprawkę na specyficzną tematykę i potencjalnie większą niechęć odbiorców do wyświetlanych reklam uważam, że to wszystko na orzeszki. Mi nie udało się nigdy osiągnąć z reklam itp. form osiągnąć pułapu pozwalającego na opłacenie abonamentu za dostęp do internetu. Takie sobie kiedyś kryterium sukcesu wybrałem. 😉 Więc nawet rząd wielkości większe dochody to są orzeszki, jeśli mówimy o pracy na jakąś nieułamkową część etatu.
Podkreślam jednak – chodzi o zarobek bezpośredni. Jak zerkniecie na blogi z jednego z pierwszych akapitów, to jak najbardziej pomagają one autorom zarabiać pieniądze. Ale nie na samych blogach. Mądrze na to mówią budowa marki. W praktyce chodzi o jakąś tam rozpoznawalność.

Jeśli mnie ktoś zapyta, czy warto pisać bloga, bez wahania odpowiem, że tak, ale wyłącznie na własnej platformie i z własną domeną. W przeciwieństwie do dowolnej platformy współdzielonej to jedyna powszechnie dostępna forma publikacji, nad którą mamy pełną kontrolę i która daje pełną niezależność. Możemy – i inni ludzie – łatwo wyszukać stare wpisy, podlinkować do nich i… ktoś to przeczyta (spróbujcie tego na FB…). Możemy bez problemu przenieść się z całą zawartością w inne miejsce i właściciel platformy nie będzie nam dyktował, czy możemy to zrobić, w jakiej formie, zakresie i kiedy. FB jest równie wieczny, jak nk.pl. 😉
A zabawa z bebechami okołoblogowymi jest IMO podobną okazją do nauki, jak niegdyś zabawa z tworzeniem szablonów blogów.

Wtyczki do WordPressa

Przesiadka na WordPressa była dobrym posunięciem, jednak ku mojemu zdziwieniu goły WordPress nie ma możliwości zrobienia – przynajmniej w prosty, cywilizowany sposób – wielu podstawowych rzeczy. Musiałem doinstalować pewne wtyczki, a po bliższym zapoznaniu się z tematem okazało się, że trafiają się tam naprawdę rewelacyjne narzędzia.

Wtyczki podzieliłem – bardzo subiektywnie – na dwie grupy – trzeba mieć oraz warto mieć. Zwykle będą to najniezbędniejsze narzędzia do podstawowych funkcjonalności, zdrowego SEO oraz narzędzia do optymalizacji bloga, zwł. czasu ładowania strony. Pora na grupę pierwszą, czyli pluginy IMO niezbędne:

BackWPup
Niezależnie od tego, czy masz własny serwer, korzystasz z hostingu który „robi backupy” czy kupujesz gotowca, warto mieć własną kopię zapasową. BackWPup robi robotę, ma sporo opcji konfiguracyjnych co backupować i gdzie przesyłać backup (tu akurat średnio jestem przekonany, lepiej zaciągać backup, niż go wysyłać z backupowanej maszyny). Potrafi działać cyklicznie, bez ingerencji, umie zrobić pełną kopię, wraz ze zdjęciami. Przypadł mi do gustu, więc nie testowałem alternatyw.

Advanced noCaptcha & invisible Captcha
Że spam na blogu może się zdarzyć – wiadomo. Miałem włączoną moderację, więc nic się nie prześlizgnęło, ale spamu wpadała cała masa. W przeciwieństwie do mniej popularnych platform blogowych, blogi oparte o WordPress są narażone na automatyczne znajdowanie przez boty, a wtedy… przychodzi nawet po kilka spamów dziennie. Moderowanie szybko mi się znudziło, różnego rodzaju rozwiązania antyspamowe mnie nie do końca przekonywały, postawiłem na standardowe rozwiązanie od Google. Ujęło mnie tym, że potrafi zabezpieczyć nie tylko formularz komentarzy, ale także logowanie, co znacznie utrudnia atak brute force (chociaż nie powstrzyma zdesperowanego atakującego, są rozwiązania do łamania CAPTCHA od Google). Prosta, standardowa konfiguracja, do wyboru różne warianty captcha, w tym wersja niewidoczna. Spam niemal zniknął, pojedyncze sztuki w miesiącu to raczej robota ludzi.

Download External Images In Posts
Znalazłem go poszukując sposobu na zaimportowanie obrazków podczas migracji z Blox i w sumie zrobił mi dzień. Działa w ten sposób, że pobiera zdalne obrazki i zapisuje je lokalnie, następnie serwuje z naszego serwera. Dzięki temu blog ładuje się szybciej (brak odwołań do wielu domen), mamy pełną kontrolę nad treścią i gwarancję jej niezmienności. Warto tu przypomnieć, że należy podawać źródło, skąd pochodzi dany obrazek na naszym blogu. Jeśli mamy ten plugin to odwiedzający nie może nawet „po prostu” zajrzeć w źródło, żeby to sprawdzić. Drobną wadą jest to, że nasz blog zajmuje nieco więcej miejsca – w końcu wszystkie zasoby są przechowywane u nas, ale przy dzisiejszych pojemnościach i cenach hostingu nie powinien być to żaden problem.

Najważniejsze wtyczki za nami, pora na mniej istotne.

Insert Headers and Footers
Potrzebowałem dodać statystyki Matomo (dawniej Piwik) i… okazało się, że w gołym WordPressie nie bardzo można to zrobić. Oczywiście do wszystkiego są dedykowane pluginy, ale jeśli ktoś – podobnie jak ja – przywykł do tego, że sam robi odpowiednie wklejki w stopce, to jest to plugin w sam raz dla niego. Nie szukałem alternatyw.

Cache Enabler
Z tym pluginem jest śmieszna historia. Tak naprawdę nie chodziło mi o cache czy różnego rodzaju funkcje optymalizacyjne (to już miałem zrobione, czy to natywnie w serwerze WWW, czy ręcznie), tylko o funkcję ukrytą pod nazwą create an additional cached version for WebP image support. Okazało się, że jest to – a przynajmniej był – najprostszy sposób, by zmusić WordPressa do serwowania grafik w formacie WebP przeglądarkom, które ten format umieją.

EWWW Image Optimizer
Narzędzie do optymalizacji grafik przechowywanych lokalnie. Mocno konfigurowalne, klikalne, potrafi bezstratnie (oraz stratnie, jeśli ktoś woli i wybierze taką opcję) optymalizować rozmiar zdjęć, dzięki czemu blog zajmuje mniej miejsca i wczytuje się szybciej. Potrafi też dokonywać przeskalowania grafik, dzięki czemu wysyłana jest nie tylko zoptymalizowana, ale najbliższa danemu rozmiarowi ekranu wersja. Domyślnie korzysta z zainstalowanych dodatkowych programów, więc nie jestem przekonany, czy będzie działał na shared hostingach. Jeśli ktoś ma swój VPS – polecam.

Google XML Sitemaps
Goły WordPress posiadał szczątkową sitemapę, albo wręcz jej nie posiadał. Plugin załatwia sprawę generowania sitemapy, która ułatwia poprawne zaindeksowanie treści. Jest sporo alternatyw w różnych wtyczkach do SEO, ten plugin spodobał mi się, bo nie jest kombajnem, robi tylko sitemapę.

Subscribe to Comments Reloaded
Chciałem dać czytelnikom często spotykaną na innych blogach i często przeze mnie wykorzystywaną możliwość subskrypcji komentarzy do danego wpisu, stąd jego obecność. Zachwalana funkcjonalność nie spotkała się z szerszym zainteresowaniem, ale samo rozwiązanie wydaje się działać OK. Na niedziałanie nikt się nie skarżył, alternatyw nie szukałem.

Tyle o pluginach, jeśli znasz inne ciekawe, podziel się nimi w komentarzach. Jeśli potrzebujesz pomocy z konfiguracją WordPressa – zapraszam do działu kontakt.

Zmiana przeglądarki używanej do chrome custom tabs w Android 7 i 8

Niedawno dowiedziałem się, że istnieje coś takiego jak mechanizm chrome custom tabs. Wszystko za sprawą appki mobilnej Allegro. Do tej pory kliknięcie zewnętrznego URLa, np. link do trackingu przesyłki, kończyło się pytaniem, w jakiej przeglądarce otworzyć (i czy zapamiętać wybór). Zwykle, a może i zawsze(?) wybierałem Firefox Focus o którym kiedyś wspomniałem i który zdecydowanie przypadł mi do gustu. Ostatnio jednak pozmieniało się i URLe otwierały się w czymś innym, podobnym do Chrome. Niezbyt mi się to spodobało.

Zasięgnąłem języka i okazało się, że chodzi o chrome custom tabs. Sama idea zmiany mi się nawet podoba tylko… wolałbym, żeby te linki otwierały się w Firefox Focus. Okazało się, że da się to zrobić, wystarczy ustawić Firefox Focus jako domyślną przeglądarkę w systemie.

W Android 7.0 Można to zrobić na dwa sposoby. Jeden opisuje Mozilla, a drugi, bardziej uniwersalny, bo działający dla wszystkich przeglądarek to wybranie:
Settings -> Apps -> kółko zębate -> Browser app, a tam Firefox Focus.

W przypadku Android 8.0 jest to (tym razem po polsku):
Ustawienia -> Aplikacje -> Domyślne aplikacje -> Aplikacja przeglądarki

Przyznaję, że jak dla mnie, to trochę zbyt mocno schowane.

Ile prądu zużywają żarówki LED?

W poprzednim wpisie pisałem o kalkulatorze zwrotu inwestycji w urządzenia energooszczędne. W tym wpisie będzie o tym, że kalkulować trzeba ostrożnie i nie takie LEDy fajne, jak je piszą.

Zaczęło się niewinnie – kupiłem okazyjnie (jakieś 4 zł/szt.) na Allegro żarówki Ledlumen, które na papierze prezentowały się całkiem obiecująco, szczególnie zważywszy na to, że używane dotychczas z IKEA mają już swoje lata. Coś mnie podkusiło, żeby sprawdzić przy pomocy watomierza, ile faktycznie pobierają prądu. Porównałem też jak jasno świecą przy pomocy aplikacji na telefonie, ale tego nie opisuję, bo mało dokładny czy powtarzalny pomiar (dochodzi światło otoczenia, ułożenie lampki i telefonu). W każdym nowe Ledlumen razie świecą jaśniej od tych używanych z IKEA, co zresztą widać gołym okiem. Natomiast wyniki pomiaru prądu okazały się na tyle ciekawe, że przetrzepałem różne rodzaje żarówek, które miałem w domu.

Pomiar za każdym razem przeprowadzałem tak samo – wkręcenie zimnej żarówki do lampki, odczyt kilka sekund po włączeniu, kolejny po minucie. Główni bohaterowie to:

  • żarówki z IKEA, używane, nazwy nie pamiętam, kupowane w różnym okresie. Zwykle paroletnie. Moc znamionowa 6,3 W.
  • żarówki Ledlumen, zakupione na Allegro, ok. 4 zł/szt. Nowe. Moc znamionowa 6 W
  • żarówki Ryet z IKEA, kupione w promocji za 4 zł/szt. Nowe. Moc znamionowa 5 W
  • żarówki Anslut z Jula. Nowe. Moc znamionowa 5,8 W

Poniżej dane z pomiarów w formie

  • opis żarówki, moc znamionowa, pobór po włączeniu, pobór po minucie od włączenia
  • IKEA 6,3 7,4 6,5
  • IKEA 6,3 6,5 6,6
  • IKEA 6,3 6,5 6,6
  • IKEA 6,3 7,4 6,5
  • IKEA 6,3 6,5 6,6
  • IKEA 6,3 6,7 6,8
  • Ledlumen 6,0 7,0 7,1
  • Ledlumen 6,0 7,1 7,2
  • Ledlumen 6,0 7,2 7,3
  • Ryet IKEA 5,0 4,5 4,5
  • Ryet IKEA 5,0 5,4 4,5
  • Anslut Jula 5,8 5,5 5,5
  • Anslut Jula 5,8 6,4 6,4
  • whitenergy 5,0 4,3 4,3
  • noname 3,0 1,8 1,8

Z powyższego daje się wyciągnąć kilka wniosków. Po pierwsze, niby takie same, nowe żarówki potrafią znacznie różnić się poborem prądu między sobą, co widać na Ryet i Anslut. Po drugie, pobór prądu nieco się zmienia po rozgrzaniu się żarówki. Po trzecie i najważniejsze, wartości deklarowane to… wartości deklarowane, a różnice sięgają nawet 10%. I rzadko są to różnice na korzyść użytkownika, przynajmniej jeśli chodzi o zużycie energii.

UPDATE Pojawił się świetny wpis traktujący o zużywaniu się i zmianach w żarówkach LED (ang.) – warto przeczytać.

Kalkulator okresu zwrotu wymiany urządzeń elektrycznych

Jakoś rok czy dwa temu wdałem się w dość bezsensowną dyskusję, czy warto przechodzić z żarówek zwykłych na LED, albo – szerzej – czy pobór prądu przez urządzenie (np. router) może być przesłanką do jego wymiany. Oczywiście stałem na stanowisku, że może, bo zdarzyło mi się to już policzyć i choćby router między innymi z tego powodu wymienić. Argumenty drugiej strony były, że ludzi nie stać na żarówki LED, że to inwestycja i że zwraca się długo. Tu nie ma co dyskutować i gdybać, to można zwyczajnie zmierzyć i policzyć.

Wpadłem wtedy na pomysł, że warto zrobić kalkulator ułatwiający tego typu szacunki[1], bo to pięć minut roboty, a będzie można łatwo porównać i żarówki, i router, i dowolne inne urządzenie. A także łatwo sprawdzić przed zakupem, czy bardziej opłaca się w określonym horyzoncie czasowym kupić tańszy sprzęt AGD klasy A czy droższy A++, co również zdarzało mi się liczyć, zgrubnie[2].

Okazało się, że roboty jest znacznie więcej, niż pięć minut, jeśli się nie zna JavaScriptu. Całość działała, ale wyglądała bardzo koślawo i… zapomniałem o tym mini projekcie. Dziś, korzystając z zapowiedzianych podwyżek cen energii, które nie spowodują wzrostu wydatków na energię (haha) uznałem, że kalkulator opłacalności wymiany urządzeń elektrycznych warto odświeżyć, czyli doprowadzić do stanu pozwalającego na jego publikację. Nadal nie jest to zgrabne, ale da się używać bez bólu oczu. Pewnie będą drobne aktualizacje.

Jednocześnie chciałem, żeby wpis o kalkulatorze oszczędności energii i zaletach LED pojawił się chronologicznie wcześniej, niż nadchodzący wielkimi krokami wpis o różnicach między deklarowanymi wartościami poboru prądu żarówek LED, a zużyciem rzeczywistym.

Użycie jest proste – podajemy ile średnio godzin dziennie używane jest urządzenie, podajemy aktualną cenę 1 kWh (wraz z przesyłem), cenę zakupu urządzeń (jeśli już posiadamy, podajemy zero). W odpowiedzi otrzymujemy miesięczny koszt użytkowania urządzeń oraz okres zwrotu. W przypadku wartości ułamkowych należy użyć kropki jako separatora dziesiętnego.

W przykładzie, po otwarciu strony jest żarówka zwykła 60W za 1 zł oraz 6W LED za 10 zł. Przy użyciu 2h dziennie i cenie 55gr/kWh (jakoś tak teraz jest) zwraca się w 5 m-cy. Ogólnie jeśli ktoś chce oszczędzać pieniądze, to warto wymienić wszystkie istniejące żarówki starego typu, zupełnie nie przejmując się częstotliwością zapalania i gaszenia…

Korzystając z okazji przypomnę adres mojego nieco zapuszczonego bloga dotyczącego realnego poboru prądu przez różne urządzenia.

[1] Oczywiście działający po stronie przeglądarki, napisany w JavaScript – nie pobieram żadnych danych na serwer. Mocno poza strefą komfortu, jeśli chodzi o język. Totalnie zmarnowane szanse na produktyzację. Ale uważam, że tak się powinno robić tego typu kalkulatory.

[2] Wtedy wyszło mi, że w perspektywie pięciu lat, bo na tyle szacowałem żywotność sprzętu, nie ma sensu dopłacać kilkuset zł za urządzenie bardziej energooszczędne.

Skutki wycieku danych z Morele.net

Jakiś czas temu ze sklepu internetowego Morele.net wyciekły dane. W sieci zaroiło się od reakcji, dość skrajnych. Od psioczenia na słabe zabezpieczenia i „jak tak można było” i „pójdę z tym do sądu” po „nie stało się nic„.

Wyciekły maile, imiona, nazwiska, numery telefonów dla 2,2 mln kont. Oraz prawdopodobnie, dodatkowo, jak twierdzi włamywacz, a czemu zaprzeczyły Morele.net, numery PESEL oraz skany dowodów osobistych dla kilkudziesięciu tysięcy kont, a włamywacz ujawniał kolejne szczegóły na Wykopie (konto już usunięte).

Moim zdaniem prawda leży, jak to często bywa, gdzieś pośrodku. Na pewno wyciek jest ważny ze względu na skalę – 2,2 mln rekordów w skali Polski to bardzo dużo[1], w dowolnym aspekcie – czy to do wysyłki spamu, czy do ataków phishingowych przy pomocy SMSów, czy wreszcie jako baza haseł, zarówno do próby bezpośredniego wykorzystania ich w innych serwisach, jak i do analizy i budowy słowników w kolejnych atakach.

W informacjach o wycieku poruszony był aspekt niezłego hashowania haseł. Niestety te niezłe hashe w praktyce niewiele wnoszą – być może nie uda się złamać, w sensownym czasie i sensownym kosztem, najtrudniejszych haseł, ale najsłabsze ok. 20% można złamać na CPU na pojedynczym komputerze w ciągu pojedynczych godzin.

Jeśli informacja o wycieku skanów dowodów jest prawdziwa, to jest to dla ofiar spory problem – możliwości do nadużcia spore, PESEL w zasadzie niezmienialny, a wymiana dowodu kłopotliwa. Przypuszczam, że chodzi tu tylko o kupujących na raty.

Pozostałe 2,2 mln niespecjalnie ma powody do zmartwień, jeśli tylko nie stosuje schematycznych haseł oraz ma osobne hasła do różnych serwisów. W tym miejscu gorąco polecam programy do przechowywania haseł w stylu Keepass.

Jeśli hasła są różne w różnych serwisach to nawet ich siła nie ma specjalnego znaczenia, o ile w serwisie są tylko dane z bazy, nie można zrobić zakupu itp. OK, atakujący dostanie się do konta w sklepie internetowym. Co zobaczy, czego jeszcze nie wie? Historię zakupów? Ironizuję, ale zakładam, że nie jest w stanie robić zamówień itp. bez dodatkowego potwierdzenia. Mógł za to usunąć konto, jednym kliknięciem, bez potwierdzania. Cóż, to strata głównie dla sklepu – jeśli ktoś potrzebuje to założy nowe konto…

Jeśli chodzi o maile, to jest spora szansa, że już wcześniej trafiły do baz spamerów i marketerów. Chyba, że ktoś stosuje oddzielne aliasy do serwisów, ale wtedy zupełnie nie ma problemu – wystarczy usunąć alias. Podobnie z numerami telefonów. A jeśli ktoś chce mieć święty spokój, to przypominam, że usługi GSM tanieją i numer telefonu płatny w formie prepaid można mieć już za 5 zł rocznie i używać go w różnych mniej istotnych miejscach. Oczywiście można to zrobić w nowocześniejszy sposób.

Tu dochodzimy do sedna: czy do zakupu w każdym sklepie internetowym faktycznie potrzebne jest zakładanie konta? Niektóre sklepy wymuszają założenie konta, ale staram się takich unikać, a z paru zakupów zdarzyło mi się zrezygnować z tego powodu. Jeśli już zakładamy konto, to dobrze by było, żeby wymagane było podawanie jak najmniejszej ilości danych. Zupełnie dobrze by było, gdyby serwisy pozwalały na ustawienie po jakim czasie nieaktywności usunąć konto lub chociaż cyklicznie przypominać mailem o takiej możliwości.

[1] Kolejny duży polski wyciek, który kojarzę to ~700 tys. z Filmweb. Oczywiście polskie konta występują też na wyciekach światowych i będą to porównywalne ilości.

UPDATE: Wpis nieco przeleżał jako szkic i został ostatecznie opublikowany w formie nieco pociętej. Mimo tematu, który pozostał z wersji oryginalnej, celowo pominąłem m. in. spekulacje nt. skutków dla Morele.net i chciałbym, aby tak pozostało, również w komentarzach.

Advent of Code

Dowiedziałem się, że jest coś takiego jak Advent of Code. Czyli kalendarz adwentowy, tylko zamiast łakoci są zadania programistyczne do rozwiązania. Dwa dziennie, liczy się i fakt rozwiązania, i czas. Rozwiązywać można w dowolnym języku, weryfikacja rozwiązania jest przez podanie wyniku.

Podobno maja być z różnych dziedzin i o różnym poziomie trudności – dziś były bardzo proste. Zrobiłem w Pythonie, potem lepszą wersję, potem jedno w Perlu, jako krótki oneliner.

Jest rywalizacja globalna, ale można też tworzyć prywatne rywalizacje i porównywać się ze znajomymi. Ja bawię się z ludźmi z pracy, choć sporo z nich utrudniło sobie wyzwanie i poznaje przy okazji nowy język. Ale ja nie jestem programistą… 😉

Trochę skojarzenie z konkursami programistycznymi, którymi bawiłem się na studiach. Żeby nie było samych zalet – mimo, że każdy uczestnik ma inne dane wejściowe, to czas rozwiązania liczy się od publikacji zadania, które ma miejsce o północy w dziwnej strefie czasowej, co pewnie faworyzuje niektóre lokalizacje geograficzne. Ale nie ma to większego znaczenia w przypadku zabawy ze znajomymi.

Polecam zerknięcie – można sobie odświeżyć umiejętności programistyczne, poćwiczyć i przede wszystkim pobawić się.

SEO przy zmianie domeny bloga

To ostatni wpis nawiązujący do Blox, przynajmniej techniczny, bo być może pojawi się jeszcze jeden o tym, jak Agora ma w głębokim poważaniu wolność słowa (określając to górnolotnie) i że ważniejsze jest parę złotych.

Po przeniesieniu bloga, o którym nieco pisałem, przyszedł czas na przeniesienie pozycjonowania w Google w nowe miejsce, czyli zabawę z SEO, aby ludzie wchodząc z wyszukiwarki trafiali w nowe miejsce. Przyznaję, że motywację miałem nikłą – nie zarabiam na wejściach, bo ani nie służy on do sprzedaży produktu, ani nawet nie ma podpiętych innych, pośrednich form zarobku.

Po przeniesieniu treści postanowiłem poczekać. Zwyczajnie i po prostu, nie robiąc nic, poza daniem informacji Google, że blog jest i jak interpretować zawarte na nim dane. Zresztą akurat miałem co innego na głowie. Znaczy ograniczyłem się do wypełnienia Data HighliterWebmaster Tools. Stan taki trwał jakiś miesiąc albo dwa.

Z braku kontroli nad nagłówkami pomysł przekierowania w nowe miejsce przy pomocy kodu odpowiedzi 301 odpadł w przedbiegach, choć to najprostsza, automatyczna i zalecana – także z punktu widzenia SEO – forma przekierowania ruchu w nowe miejsce.

Trochę czasu minęło, ilość wejść na nową lokalizację była szczątkowa, choć miałem nadzieję, że Google zacznie ogarniać sytuację samodzielnie. Niestety tak się nie stało, więc postanowiłem zacząć działać, choć miałem świadomość, że to praca, która się nie automatyzuje. Pierwsze co przyszło mi do głowy, to ustawienie link canonical dla wybranych, najczęściej odwiedzanych wpisów z nową lokalizacją jako celem. I tu okazało się, że Blox przewidział sytuację i… stosowne elementy HTML znikają po dodaniu ich w edycji źródła[1].

Z braku lepszych pomysłów dodałem w najpopularniejszych wpisach namiar na nowe miejsce, poprawiłem też linki do bloga w większości miejsc, gdzie były one umieszczone i… postanowiłem jeszcze poczekać. Poczekałem kwartał, ale nie wydarzyło się nic specjalnego. Statystyki wg Webmaster Tools wyglądały na koniec kwartału następująco:

ostanie 28 dni: impr: 2250, CTR 0,84%, avg pos 33,7. 130 wizyt

Delikatnie mówiąc szału nie ma.

Postanowiłem więc podziałać inaczej. Skoro nie mogę przekierować wyszukiwarki Google, to postanowiłem przekierować przynajmniej żywych ludzi, licząc, że Google w jakiś sposób to zauważy i odpowiednio zinterpretuje. Skoro nic nie działa, to co zadziała na pewno i czego nie można zablokować? Oczywiście JavaScript. Malware korzystający z niego ma się dobrze dzięki obfuskacji, zablokować całkowicie wykorzystania JS na stornie nie bardzo można, bo masa funkcjonalności z niego korzysta. Użyłem następującej wersji przekierowania z jednej lokalizacji na drugą (dla najpopularniejszych wpisów):

<script>
window.location.replace('https://zakr.es/blog/2017/09/goodbye-yanosik/');
</script>

Oczywiście powyższy JS był tylko w odpowiadającym wpisie na starym blogu, a URL w skrypcie to URL na nowym blogu.

Zadziałało nadspodziewanie dobrze. Nadspodziewanie, bo przy wejściu na URL kategorii zawierającej wyświetlany wpis z przekierowaniem, także przekierowywało. Co gorsza przekierowywało przy wejściu na stronę główną, bo także znalazł się tam wpis z przekierowaniem. Może i więcej ruchu przez to, ale niezupełnie o to chodziło i mało to precyzyjne… Dla wpisów z głównej dokonałem więc stosownej korekty w stylu:

<script>
var stringPathName = window.location.pathname;
if (stringPathName == "/2018/02/Waze-jako-nawigacja.html") {
  window.location.replace('https://zakr.es/blog/2018/02/waze-jako-nawigacja/');
}
</script>

Poczekałem miesiąc, wyniki w statystykach były zauważalne, zacząłem więc dodawać tego typu przekierowania dla kolejnych, popularnych linków. Po dwóch miesiącach od dodania przekierowań w JS, wyniki wyglądały następująco:

28 dni: impr: 10450, CTR 4,46%, avg pos 18.8, 490 wizyt

Jak widać wzrost wszędzie. Uznałem, że jest sukces, zacząłem – dla pewności – usuwać większość treści wpisów na starym blogu. Nie było negatywnego wpływu, nastąpił nawet dalszy, równie znaczący wzrost wskaźników, choć zakładam, że wynika on po prostu z upływu czasu.

Największym zaskoczeniem jest dla mnie, że Google przy pozycjonowaniu uwzględnia JS do tego stopnia. Wiedziałem, że radzi sobie z treścią w JS i umie odczytać URLe, ale w tym przypadku wygląda, że poprawnie interpretowany jest fakt przekierowania.

Co można było zrobić lepiej lub inaczej? Całość działań można było zamknąć w mniej niż dwa miesiące, gdybym od razu wiedział co robić i działał zdecydowanie. Oczywiście lepsze efekty byłyby, gdyby zmiany dotyczyły wszystkich wpisów, ale jest to żmudna, ręczna praca, której poświęcałem kilka minut dziennie przy porannej kawie. Powyższy sposób przekierowania nie jest jedynym dostępnym w JS, miałem w planach sprawdzenie różnych, ale ten sprawdziłem jako pierwszy i zadziałał powyżej oczekiwań, więc nie testowałem innych.

Na koniec jeszcze garść cyferek. Ingerowałem ręcznie w ww. sposób w 40 wpisów. Wg Matomo nowy blog ma obecnie ok. 4-5 razy większą ilość wizyt, niż stary. Czyli ładny podział zgodnie z zasadą Pareto.

Co dalej? Dodawanie przekierowań w kolejnych wpisach i usuwanie z nich treści. Ostatecznie pewnie usuwanie przekierowanych wpisów, ale póki co nie mam na to ciśnienia.

[1] Tu zniknęła moja wątpliwość w celowość działań Blox w celu przywiązania użytkowników do swojej platformy. Przypominam: technicznie mają kontrolę nad nagłówkami i domeną – to jakby naturalne i cena za korzystanie ze współdzielonej platformy. Do tego wyłączyli parę lat temu – rzekomo tymczasowo – API. Ale jak widać dodatkowo jeszcze celowo ingerują w treść HTML.

Wrocław (Hala Stulecia)

Zupełnie na przyczepkę w trakcie urlopu, którego głównym punktem było wrocławskie zoo było w planie krótkie zwiedzanie Ogrodu Japońskiego oraz Hali Stulecia. W obu przypadkach zakończone porażką – pierwszy z obiektów nie jest dostępny do zwiedzania od końca października, choć z zewnątrz wygląda akceptowalnie. Bonusowo: całą drogę były drogowskazy, o godzinach otwarcia można się dowiedzieć dopiero po dotarciu na miejsce. Nie jest to problem, bo to raptem kilkaset metrów, a trasa ładna, ale koncepcyjnie fail.

Zwiedzanie Hali Stulecia wewnątrz było niemożliwe z powodu trwającej próby do przedstawienia. Na osłodę obejrzeliśmy z zewnątrz oraz ciekawą wystawę poświęconą Hali Stulecia. Co ciekawe, nadal widoczne są kompleksy(?) związane z niemieckim, militarnym charakterem Hali. Nie tylko na wystawie, która okres nazizmu podczas II WŚ pomija na filmie dosłownie jednym zdaniem, ale również na Wikipedii, gdzie wersja polska mówi jedynie o układzie hali i krzyżu greckim:

Układ hali jest w rzucie kolisty, oparty symetrycznie na greckim krzyżu, na którego trzech końcach znajdują się małe hale wyjściowe, a na zachodnim, skierowanym w stronę centrum miasta – dwupoziomowa owalna hala wejściowa.

Natomiast wersja angielska wspomina już o motywie Żelaznego Krzyża na sklepieniu.

Photos taken looking up at the centre of the structure without the fabric covering clearly show the Iron Cross motif.

Czy to nadinterpretacja? Niekoniecznie, bo odznaczenie to zostało ustanowione właśnie w okresie upamiętnionym powstaniem hali. Nieźle oddaje to zdjęcie linkowane przez Wikipedię:

hala stulecia wnetrze
Źródło: http://4.bp.blogspot.com/-CNG4fQkG0k8/Ue-1V0wPnbI/AAAAAAABEeI/KuXdT02PUCQ/s1600/hala+stulecia+wnetrze.jpg

Z drugiej strony ciężko zrobić sklepienie z ośmioma żebrami, które nie będzie się – przy minimalnym wysiłku – z krzyżem kojarzyć.

Warto o tym wiedzieć, bo ciekawie jest oglądać zdjęcia z okresu PRL z różnymi elementami zasłaniającymi sklepienie – wygląda, że wtedy również raczej doszukiwano się nawiązującej do Żelaznego Krzyża interpretacji.

Gdyby ktoś z czytelników miał wrażenie deja vu, to tak, poprzedni wpis podzieliłem na dwa.

Wrocław (zoo)

Korzystając z zalegającego urlopu oraz sprzyjającej prognozy pogody postanowiliśmy odwiedzić Wrocław. W zasadzie wypad stał pod znakiem zoo, ale nieco miasta liznęliśmy.

Coś mi się kołatało w głowie, że Wrocław to korki i słabo się po nim jeździ samochodem. Co prawda początki z Poznaniem miałem takie, że stwierdziłem, że auto w nim to nieporozumienie, więc liczyłem, że może być tylko lepiej, ale… chyba nie jest lepiej. Mimo dnia powszedniego i jazdy poza szczytem, korki gdzieniegdzie były. Kierowcy jeżdżą raczej agresywnie – kilka stłuczek plus częste klaksony. Wolę nie sprawdzać jak to wygląda w godzinach szczytu. Na szczęście tramwaje jeżdżą często i nie trzeba się przejmować biletami – wszystkie tramwaje, którymi jechaliśmy mają kasowniki zintegrowane z czytnikiem kart płatniczych, czyli nie trzeba kupować żadnej karty PEKA czy biletów, można płacić bezpośrednio. Bilety są na przejazd i czasowe.

Na zwiedzanie wrocławskiego zoo warto sobie zaplanować cały dzień.  Teren nie jest tak rozległy, jak w Poznaniu, ale atrakcji jest wiele. Chodziliśmy ile sił starczyło, czyli od 10:00 do 15:30. Pogoda też dopisała – niby listopad, ale warunki raczej jak we wrześniu – i w miarę ciepło, i trochę słońca. Dodatkowo poza sezonem we wrocławskim zoo było raczej niewielu ludzi, co oznacza spokój i dobry dostęp do wszystkiego. Znaczy idealnie.

Afrikarium wypadło bardzo dobrze. Co prawda spotkałem się z opiniami, że przereklamowane, ale IMO robi robotę. I to nawet nie sam tunel, ale już same szyby umożliwiające zajrzenie pod wodę są rewelacyjne. Zaskoczyła mnie głębokość zbiorników – do tej pory spotkałem się z podglądem powiedzmy 1-1,5 metra od lustra wody, natomiast tu szyby znajdują się znacznie głębiej – stawiałbym na ok. 3 metry. Efekt jest rewelacyjny, zarówno jeśli chodzi o ryby, jak i inne zwierzęta – kotiki i manaty też wyglądają ciekawie. W ogóle jeśli chodzi o „foki”, to oglądanie ich tylko z góry, jak w poznańskim zoo jest w porównaniu zwyczajnie słabe. I ponownie podkreślę, że brak tłumu przy szybach zdecydowanie poprawia efekt i odbiór, więc warto tę część zoo zwiedzać poza sezonem lub w odpowiednich, mało tłocznych godzinach. Przykładowy pingwin:

pingwin we wrocławskim zoopingwin we wrocławskim zoo
Źródło: fot. własna

Jeszcze jedna rzecz – karmienie zwierząt. Samodzielnie zwierząt nie można karmić (wyjątkiem są pawiany i automat z odpowiednią karmą), natomiast są podane godziny podawania posiłków. Harmonogram był napięty, więc generalnie odpuściliśmy, albo – jak w przypadku rekinów – nie trafiliśmy, bo karmienie nie jest codziennie, natomiast byliśmy na karmieniu kotików i… bardzo je polecam. Spodziewałem się co prawda jakiejś interakcji, natomiast to co zobaczyłem to był praktycznie cyrkowy pokaz.

Nieuchronnie pojawia się pytanie czemu zoo ma służyć. Z jednej strony rozrywka dla zwiedzających, z drugiej strony jest to miejsce, gdzie zwierzęta po prostu żyją. Niektóre bez szans na inną egzystencję, bo w środowisku naturalnym gatunek przestaje występować. We wrocławskim zoo aspekt ten jest podkreślany przez wszechobecne tablice dotyczące stanu zagrożenia gatunku i powodu wymierania. Jeśli chodzi o rozrywkę dla zwiedzających, wrocławskie zoo wygrywa zdecydowanie, jeśli zaś chodzi o warunki dla zwierząt, wydaje mi się, że poznańskie jest lepsze. Po prostu zwierzęta mają więcej przestrzeni.

gnu we wrocławskim zoo
Źródło: fot. własna

Szczególnie dotyczy to starej części wrocławskiego zoo. W pamięci utkwił mi pawilon szympansów, z grubymi kratami. Jeden z szympansów darł się rozdzierająco i kiwał w przód i tył, następnie urządził bieg przez różne klatki, trzaskając kratami (są otwierane). Skojarzenia z więzieniem lub raczej szpitalem psychiatrycznym pogłębiała wystawa prac szympansów w postaci rysunków. Zdaję sobie sprawę, że zamysł wystawy był pewnie inny, a ja mogę źle interpretować zachowanie szympansów. Zdecydowanie lepiej jednak oglądało się zwierzęta pływające w przestronnych basenach czy na dużych wybiegach.

Z innych rzeczy – udało się zaliczyć wyspy na Ostrowie Tumskim wieczorową porą, ładnie podświetloną katedrę i trochę rynek. Bardziej przy okazji posiłków, niż zwiedzając, ale było na co popatrzeć – gdybym miał określić jednym słowem, to Wrocław prezentuje się przyjemnie. Wydawało mi się, że Poznań się poprawił, ale po latach, architektonicznie, jako miasto Wrocław przemawia do mnie nadal znacznie bardziej. Zwiedzanie krasnali odpuściliśmy – co prawda kilka znaleźliśmy, ale bez nastawiania się na nie.

Część dotyczącą Hali Stulecia przenoszę do kolejnego wpisu. Dodałem zdjęcia robione smartfonem. Wiem, fatalnie wychodzą, ogólnie aparat to pięta achillesowa tego modelu. Raczej ze względu na RMSowy kontekst robione i dodane. 😉

Chromium w Debianie unstable nie startuje

Gdyby komuś w Debianie unstable przestało działać chromium, a przy uruchomieniu polecenia w konsoli pokazywało się coś takiego:

$ chromium 
[4278:4278:1113/085947.509811:FATAL:zygote_host_impl_linux.cc(116)] No usable sandbox! Update your kernel or see https://chromium.googlesource.com/chromium/src/+/master/docs/linux_suid_sandbox_development.md for more information on developing with the SUID sandbox. If you want to live dangerously and need an immediate workaround, you can try using --no-sandbox.
#0 0x562ca49ba9ee <unknown>
#1 0x562ca492699c <unknown>
#2 0x562ca55b8f90 <unknown>
#3 0x562ca45f9365 <unknown>
#4 0x562ca45fe5ce <unknown>
#5 0x562ca45f7e5a <unknown>
#6 0x562ca2d09e95 ChromeMain
#7 0x7fbb5a4f6b17 __libc_start_main
#8 0x562ca2d09d3a _start

Received signal 6
#0 0x562ca49ba9ee <unknown>
#1 0x562ca49b9433 <unknown>
#2 0x562ca49ba965 <unknown>
#3 0x7fbb633dc8e0 <unknown>
#4 0x7fbb5a509f3b gsignal
#5 0x7fbb5a50b2f1 abort
#6 0x562ca49ba905 <unknown>
#7 0x562ca4926a76 <unknown>
#8 0x562ca55b8f90 <unknown>
#9 0x562ca45f9365 <unknown>
#10 0x562ca45fe5ce <unknown>
#11 0x562ca45f7e5a <unknown>
#12 0x562ca2d09e95 ChromeMain
#13 0x7fbb5a4f6b17 __libc_start_main
#14 0x562ca2d09d3a _start
r8: 0000000000000000 r9: 00007ffe7d2f0920 r10: 0000000000000008 r11: 0000000000000246
r12: 00007ffe7d2f0da0 r13: 00007ffe7d2f0f60 r14: 000000000000016b r15: 00007ffe7d2f0ba0
di: 0000000000000002 si: 00007ffe7d2f0920 bp: 00007ffe7d2f0b70 bx: 0000000000000006
dx: 0000000000000000 ax: 0000000000000000 cx: 00007fbb5a509f3b sp: 00007ffe7d2f0920
ip: 00007fbb5a509f3b efl: 0000000000000246 cgf: 002b000000000033 erf: 0000000000000000
trp: 0000000000000000 msk: 0000000000000000 cr2: 0000000000000000
[end of stack trace]
Calling _exit(1). Core file will not be generated.

to sprawa jest znana, błąd jest zgłoszony i wystarczy doinstalować pakiet chromium-sandbox.