Chromium pobiera zamknięty, potencjalnie naruszający prywatność kod

Do niedawna Chromium w Debianie pobierało niewolny, zamknięty, binarny fragment kodu po instalacji. Jest to oczywiście zachowanie sprzeczne z Umową społeczną Debiana. Co więcej charakter modułu i sposób jego działania (Chrome Hotword Shared Module – obsługa mikrofonu, rozpoznawanie mowy) nie wykluczają, że mogło dojść do naruszenia prywatności użytkowników tej dystrybucji, tym bardziej, że jest on pokrewny „podsłuchowi przez Google”, który opisywano na początku roku.

Jeszcze ciekawszy jest fakt, na który zwrócono uwagę, że nawet wyłączenie w opcjach przeglądarki tej funkcjonalności nie zapobiega ładowaniu czy uruchomieniu niewolnego modułu. Pojawiły się też pytania o to, w jaki sposób oprogramowanie wykorzystujące takie metody dystrybucji pojawiło się w Debianie oraz o to, czy Google powinno w ogóle być upstreamem. Pojawiły się też głosy, że zjawisko tego typu pojawia się coraz częściej.

W Debianie problem został poprawiony w najnowszej wersji pakietu.

Sam fakt pobierania binarnego dodatku nie jest ograniczony do Debiania, wywodzi się to z upstreamu Chromium w wersji 43, więc dotyczy wszystkich dystrybucji Linuksa z tą wersją. Zostało to zgłoszone do upstream Google.

Źródła:

  1. http://www.theregister.co.uk/2015/06/17/debian_chromium_hubbub/
  2. https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=786909
  3. https://code.google.com/p/chromium/issues/detail?id=491435

Blox przyspieszy

W końcu zostało zapowiedziane, że Blox przyspieszy. Bo o ile nowe szablony wyglądają nieźle, to i czas ładowania, i ilość przesyłanych danych, i ocena w różnych narzędziach woła o pomstę. Różne są zboczenia, a moje jest takie, że czasem robię snapshota migawkę stanu bieżącego. Dla pamięci. I taką migawkę zrobiłem lekko ponad rok temu dla starego wyglądu, a następnie opisałem we wpisie o odchudzaniu.

No to pora zrobić migawkę dla nowego wyglądu przed optymalizacją. Dla głównej strony bloga Google Insights prędkość 58 mobilnie, 94 wygląd, dla desktopu ocena 77. Przy okazji, by wyeliminować ew. zmiany, dla konkretnego wpisu (o routerze TP-Link) odpowiednio 58, 96, 78.

Webpagetest (tym razem Praga, Chrome) – strona główna bloga ładowanie (fully loaded) 7,4 s pierwsze ładowanie, 5,0 s kolejne 2907 kB (sic!), 484 kB;. Konkretny wpis 6,8 s (pierwsze ładowanie), 2,3 s kolejne, przesłane dane 945 kB i 166 kB.

Dorzucę jeszcze wyniki popularnego Pingdom Website Speed Test (Sztokholm). Your website is faster than 60% of all tested websites, rzecze. 81/100, 2,59 s. 2,6 MB. Dla konkretnego wpisu odpowiednio 85%, 82/100, 1,25 s oraz 916 kB.

Pierwszego czerwca było napisane, że w ciągu dwóch tygodni, więc z niecierpliwością czekam. I trzymam kciuki, by wszystko dobrze poszło.

Rzeczywistość przerasta wyobrażenia

Przeczytałem ostatni wpis na blogu Blox i trochę mi wszystko opadło. Po kolei, rozwijając komentarz zamieszczony pod ww. wpisem:

Edge Rank

Ze swoim rzekomym 100k parametrów Edge Rank jest IMO niezłą klapą totalną porażką. Z tego co widzę u mnie na FB, cały algorytm sprowadza się do trzymaj usera przy kompie czyli jak zareagował, to dorzuć mu więcej tego samego. Bąbelkowanie ( dontbubble.us/ ) w najlepszym wydaniu. Mnie osobiście wkurza takie podejście, podobnie jak opisywane u Boniego (nie mogę znaleźć wpisu, znajdę to poprawię) bardzo podobne podejście przy reklamach. W skrócie: klient wpisał w wyszukiwarkę kasa fiskalna, to od tej pory pojawia mu się to cały czas w reklamach. Mimo, że kasę fiskalną kupił dwa tygodnie temu.

Bardzo kojarzy mi się to z wpadnięciem w jakieś ekstremum lokalne przy poszukiwaniu optimum z wykorzystaniem algorytmów genetycznych. Niby dobrze (zwł. lepiej, niż losowo), ale tak naprawdę bardzo niedobrze. Oczekiwałbym jednak jakiejś finezji typu skoro ktoś interesuje się X, to za chwilę zacznie Y. No i oczywiście algorytm wie, kiedy to za chwilę nastąpi. Albo skoro użytkownik czytał już N wpisów/czasu o X, to się nasycił. Tymczasem rozwiązań tego typu brak, zamiast tego bombardowanie do znudzenia tym samym.

Publikowanie wpisów o określonych porach

Gdy pisałem wpis o pięciu sposobach na poprawienie zarobków, to raczej się nabijałem, że ktoś będzie sobie zawracał tym głowę w kontekście bloga, ale właśnie w tym miejscu rzeczywistość przerasta wyobrażenia. Nie tylko temat kiedy publikować na Facebooku jest opisywany w wielu artykułach czy nawet FAQ, ale nawet istnieją serwisy (Sotrender), które za drobną opłatą typu 13 euro czy 49 zł miesięcznie zbadają tę aktywność u naszych fanów. Znaczy naszego profilu na FB.

Pomysł z dorzuceniem uwzględnienia prognozy pogody w opisany w linkowanym wyżej wpisie sposób nie wygląda już wcale na niedorzeczny. Przecież mamy dość dokładne dane dotyczące położenia geograficznego czytelników. Do tego historia pogody dla miast, prognoza pogody (dowolny serwis, masa tego…) i załatwione. Z moich obserwacji z pracy u ISP wynika, że korelacja między pogodą a wykorzystaniem internetu przez użytkowników końcowych jak najbardziej istnieje. Zresztą, daje się to zauważyć nawet na blogu. Niezbyt skomplikowane do napisania, zresztą.

W sumie mam Piwika, więc mógłbym się pobawić w wyciąganie danych dotyczących miejscowości użytkowników stamtąd… Plus prosta baza z pogodą (historia) i gotowe. Tylko niestety widzę, że darmowa wersja bazy GeoIP dla Polski ma skuteczność rozpoznawania dla miast na poziomie 26% dla przybliżenia 50 km i 32% dla 100 km. Trochę niska ta skuteczność… Komercyjna wersja ma odpowiednio 58% i 70% i wtedy może to mieć sens…

Facebook to nowe Google

Pamiętam, jak zupełnie niedawno jedyną wyrocznią w sprawach tego, co jest dobre a co jest złe w sieci było Google. Wszyscy patrzyli, co Google lubi, co promuje w wyszukiwaniach (ostatnio: wersje mobilne). Oczywiście na Google nadal ludzie patrzą, ale to co zobaczyłem odnośnie FB przypomniało mi o wpisie, gdzie pisałem, że Facebook to nowy internet. I faktycznie, ilość treści i narzędzi pomocniczych pozwala sądzić, że FB w dziedzinie social media jest już tym, czym Google w „reszcie sieci”.

Nawet nie to, że się tego wszystkiego nie spodziewałem, ale… już?