Aktualizacja Androida

Na wstępie uprzedzam – to nie poradnik, to marudnik. Z uwagi na drastyczne sceny nie polecam lektury ludziom o słabych nerwach.

Zaczęło się od tego, że zaczęło ginąć miejsce w telefonie. Wyglądało to nieco podobnie jak w przypadku opisanym kiedyś – zajęta niby połowa miejsca, a niczego zainstalować nie sposób. Poza tym, niedawno ukazała się aktualizacja systemu, którą spróbowałem zainstalować. Dotychczas przebiegało to bezproblemowo z poziomu telefonu, tym razem jednak aktualizację pobrał, zaczął rozpakowywać i… zdechł w trakcie. Prawdopodobnie na skutek skończenia się miejsca w trakcie aktualizacji, bo przecież sprawdzenie ilości wolnego miejsca, ze stosownym zapasem przed rozpoczęciem aktualizacji to trudna sprawa jest.

Byłem pewien, że zdechł całkiem, ale nie – uruchomił się w zgrabnym trybie wyglądającym miło i przyjaźnie – zupełnie jak konsola Linuksa. Z miejsca mi się spodobało. Sprawdziłem integralność instalacji (failed), mimo ostrzeżeń uruchomiłem normalnie i… wszystko działało, tylko w starej wersji. Zwolniłem znacznie więcej miejsca i spróbowałem jeszcze parę razy. Z tym samym skutkiem, więc może jednak nie o miejsce chodziło? Zapomniałem o sprawie na parę tygodni.

System pozwala na aktualizację na kilka sposobów. Pierwszy, z którego korzystałem, to pobranie aktualizacji z sieci. Drugi, to umieszczenie aktualizacji na karcie SD i wybranie odpowiedniej opcji. Tyle, że tryby działania karty są dwa, mocno rozłączne i związane z formatowaniem karty. Pierwszy, to zwykła karta do przenoszenia zdjęć, drugi, to pamięć wewnętrzna. Oczywiście, żeby zrobić aktualizację w tym trybie, karta musi być w trybie zwykłej karty SD, a ja miałem w trybie pamięci wewnętrznej. Zresztą, gwoździem do trumny dla tej opcji okazał się problem ze znalezieniem na stronie producenta aktualizacji do umieszczenia jej na karcie.

Z uwagi na problemy z integralnością instalacji i podejrzeniem uszkodzenia systemu plików, zacząłem rozważać pełen reinstall systemu, zamiast aktualizacji, która w ww. przypadku niekoniecznie musiała się udać. Co prawda na stronie producenta nie widziałem pełnych wersji do instalacji, ale stwierdziłem, że w sumie goły Android to nawet lepsza opcja może być. Zacząłem szukać wersji waniliowej albo jakiegoś CyanogenMod.

I tu zaczyna się horror show. Jakieś pliki wrzucone w jakieś miejsca, przez jakieś skracacze linków. Autor nieznany, treść niepodpisana cyfrowo. GPG jest przecież takie trudne, a malware’u dołożyć nie sposób. Do tego dziwne rozczłonkowanie i po modelach telefonów (pół biedy, jeśli oznaczenie jest dokładnie to samo), i po plikach. Totalne puzzle.

Dla pewności sprawdziłem jeszcze raz stronę producenta, czy aby nie przegapiłem gdzieś obrazu czy czegoś w ten deseń. No jednak nie. Postanowiłem zatem uznać wyższość Windows i skorzystać z aplikacji do aktualizacji dostarczanej przez producenta. Instalacja bez problemu, ale po podłączeniu telefonu system… zapragnął sterownika. W trakcie instalacji „się przerwało” i musiałem odczynić jakiś cyrk, żeby ponownie go wykrył. Oczywiście logów czy sensownych komunikatów brak.

Po wykryciu telefonu i instalacji sterowników pozostało już tylko wybranie modelu (nie żeby przed chwilą nie był wykryty, prawda?) i zaczął się pobierać system. A potem zaczął się wgrywać na telefon. Radosny komunikat na ekranie głosił, że gdyby rozłączył się w trakcie, to należy wyjąć z niego baterię i podłączyć ponownie. Chyba nie do końca umiem korzystać z Windows, bo za nic nie potrafiłem stwierdzić czy jest podłączony, czy nie. Możliwe, że nie dość uważnie wpatrywałem się w diodę dysku czy wsłuchiwałem w szum wentylatora. W każdym razie po kilkunastu minutach bez postępu stwierdziłem, że chyba nastąpiło rozłączenie. Oczywiście logów czy jasnego komunikatu na ekranie nie ma, bo po co?

Słusznie stwierdziłem! Wyjąłem baterię podłączyłem ponownie i… cały proces zaczął się od początku. No dobrze chociaż, że wykrył pobrany już plik. Tym razem flashowanie dotarło do szczęśliwego finału. Restart telefonu i… Zamiast wersji najnowszej, jest ta, którą miałem wcześniej. Ale system czysty, więc połączyłem się z siecią WiFi i tym razem aktualizacja do naprawdę najnowszej dostępnej wersji przebiegła już bez problemu.

Cel został osiągnięty. W jedyne dwie godziny. Czy tam dwie i pół.

LXDE -> LXQt – podejście pierwsze

Od dłuższego czasu (notka wskazuje, że już sześć lat, jak ten czas leci…) moim domyślnym – i w zasadzie jedynym używanym – środowiskiem na desktopie (ang.: desktop environment) jest LXDE. Nie udało mi się oczywiście całkiem zrezygnować z zależności od KDE. Z aplikacji przychodzących z KDE ostały się: edytor kate (jednak z GUI – najwygodniejszy, obecnie myślę o Atom, ale kobyła…); konsole (w szczególnych przypadkach typu konieczność wyboru charsetu, bo lxterminal ogólnie działa bardzo fajnie) oraz… kdiff3, który jest wygodny. Ale nie o tym ma być notka.

Środowisko LXDE

Środowisko LXDE Źródło: http://lxde.org/lxde_desktop/

Swego czasu w sieci było sporo zachwytów nad LXQt i trochę bolało mnie, że nie ma paczek w Debianie, żeby się pobawić. Potem zauważyłem, że paczki pojawiły się w unstable, ale nie było już jakoś ani czasu, ani ochoty. Ostatnio sobie przypomniałem o ich istnieniu, zainstalowałem pakiety, przelogowałem się i… trochę rozczarowanie. Może za dużo czytałem zachwalania i miałem za wysokie oczekiwania, ale przyznam, że LXQt nie powaliło mnie.

Pierwsze co mi się rzuciło w oczy, to brzydkie dekoracje okien i brak większego wyboru w tym zakresie. OK, może kwestia przyzwyczajenia. Do tego doszły braki widgetów (np. wyloguj) oraz zmiany działania tych, które były wcześniej używane. Przykładowo wykres użycia CPU czy RAM zawiera teraz więcej informacji, na jednym wykresie. W przypadku CPU pokazuje nie po prostu zużycie, ale z rozbiciem na nice, system, user. RAM podobnie – used, buffers… Po co to komu na desktopie, tak naprawdę? Na pierwszy rzut oka jest mniej czytelnie, choć informacji więcej. I jest to ogólny trend. Widget do pokazywania temperatury korzysta domyślnie ze wszystkich możliwych źródeł, zarówno tych działających, jak i nie działających. I żeby było „normalnie”, to trzeba wyłączyć niechciane (i niedziałające).

Podgląd pulpitów jakiś taki brzydszy. Znaczy wybór pulpitów, bo podglądu po prostu nie ma. QTerminal nadal nie ma możliwości wyboru kodowania. Wbudowane blokowanie terminala (czyli screensaver) odwołuje się do nieistniejącej binarki, chociaż to akurat obchodzę przy pomocy xscreensavera, tak samo miałem zrobione w LXDE.

Żeby nie było, że tylko wady: widać, że poświęcono trochę pracy na łatwiejsze (drag & drop) dodawanie programów do pasków. Pojawiło się jakby więcej opcji w wielu miejscach. Trochę mam skojarzenia z KDE 3.5 (tak jak je pamiętam), jeśli chodzi o możliwości konfiguracji. Wiele rzeczy daje się obejść, np. zamiast brakującego widgetu do wylogowania można użyć drugiego paska ze skrótami do aplikacji i tam przeciągnąć z menu odpowiednie programy. Zdecydowanie fajny jest menadżer nośników wymiennych – w LXDE nie korzystałem, nie wiem czy w ogóle był.

Drobiazgów typu zużycie RAM nie mierzyłem – w porównaniu z dowolną przeglądarką WWW to są orzeszki teraz… Ogólnie środowisko działa szybko i sprawnie. Mam je na domowym desktopie od jakichś dwóch tygodni i zdecydowanie daje się używać.

Środowisko LXQt

Środowisko LXQt. Źródło: http://lxqt.org/screenshots/dark/

Podsumowując: wygląd jest sprawą dyskusyjną. Moim zdanie LXQt nie wnosi nic specjalnego w stosunku do LXDE, poza wyglądem, więc jeśli ktoś korzysta z LXDE, to raczej nie będzie zachwycony zmianą. Faktem jest, że LXQt działa i daje się używać, więc gdyby LXDE zniknęło, to mam wybranego następcę. Zmiana filozofii z „jest prosto i działa” na „można więcej skonfigurować” – co kto lubi. Mi LXDE pasowało, bo korzystałem z praktycznie niemodyfikowanej konfiguracji domyślnej i wielką zaletą przesiadki na LXDE był właśnie fakt, że praktycznie wszystko od kopa działa i nie trzeba rzeźbić. Przy przejściu z LXDE na LXQt trochę trzeba się pobawić z konfiguracjami.

Póki co zostawiam LXQt, żeby pozbyć się przyzwyczajeń, ale nie wykluczam, że za parę tygodni wrócę do LXDE. Tym bardziej, że właśnie z LXDE korzystam na innych desktopach. – paczki LXQt w Debianie są dopiero w testing i wyżej.

Przeglądarka Vivaldi

Parę dni temu do przeglądarek dostępnych na rynku dołączył nowy gracz – Vivaldi. A w zasadzie nie tyle dołączył, co ukazała się wersja 1.0. Oczywiście zainstalowałem i się pobawiłem. Jest parę ciekawych ficzerów, które przypadły mi do gustu, ale nie wszystko mi się podoba.

Pierwszą rzeczą, którą widzimy po instalacji i uruchomieniu przeglądarki, jest tzw. wizard. Można wybrać schemat kolorów, rozmieszczenie belki z tabami i… obrazek, który będzie służył za tło przy speed dial. Wszystko oczywiście można zmienić później w ustawieniach, ale uważam, że taka szybka i łatwo dostępna personalizacja to miła rzecz. Poza nieszczęsną tapetą dla speed dial – po co tam komu tapeta? Przecież to potrzebne jak tapeta w systemie – widzę ją przez parę sekund po uruchomieniu i tyle.

Kolejną rzeczą, która zwróciła moją uwagę, jest pasek postępu – pokazuje ilość pobranych danych, postęp ładowania w postaci przesuwającego się paska i chyba ilość obrazków na stronie. W każdym razie kiedyś któraś przeglądarka już tak miała i uważam to za lepsze rozwiązanie, niż niewiele mówiące kręcące się kółeczko.

Vivaldi ma chyba pewne ambicje do zastąpienia systemu operacyjnego. Jest i wspomniana tapeta, jest wbudowany w przeglądarkę klient poczty, jest możliwość tworzenia notatek, no i w końcu są panele, czyli tak naprawdę funkcjonalność kafelkowego managera okien. O ile do pierwszych dwóch podchodzę zdecydowanie negatywnie, to do tworzenia notatek mam mieszane uczucia. Za to panele nawet mi się podobają – jest to coś w stylu mini strony WWW, domyślnie w wersji mobilnej, dostępna na każdej zakładce. Po prostu podział powierzchni okna na dwie części. Przy obecnych szerokich monitorach może zdawać egzamin, a w panelach można umieścić np. social media, które i tak nie wymagają wiele miejsca.

OgólnieVivaldi bardzo przypomina mi Operę. Jak się okazało, słusznie, bo projekt tworzą ludzie, którzy kiedyś pisali Operę. Jest parę różnic, przede wszystkim większy nacisk na prezentację. Jest parę innowacji, więc przypuszczam, że – podobnie jak niegdyś OperaVivaldi zdobędzie pewne grono gorących zwolenników. Wielkiej popularności nie wróżę, ale zdecydowanie warto spróbować. Ja planuję od czasu do czasu używać, być może Vivaldi zostanie moją przeglądarką do social mediów.

Na koniec słowo o obsługiwanych systemach operacyjnych – Vivaldi dostępna jest dla Maców, Windows (wersje 32 i 64 bit) oraz Linuksa (pakiety deb i rpm w wersjach 32 i 64 bit). Twórcy nie chwalą się adresami repozytoriów, ale są one dostępne i dodawane automatycznie po instalacji (bez ostrzeżenia, nie lubię). Dla porządku, dla gałęzi stabilnej przeglądarki i Debiana wpis dla sources.list  to:

deb http://repo.vivaldi.com/stable/deb/ stable main


Rozważania o blokowaniu ekranu

Przy okazji trwającej dramy dotyczącej xscreensavera w Debianie[1] przypomniał mi się pokrewny temat, o którym miałem robić wpis jakiś czas temu. Chodzi o blokadę dostępu do komputera, niezależnie od używanego systemu (Windows, Linux, OS X). Tradycyjnie jest to jakiegoś rodzaju wygaszacz ekranu, który po pierwsze blokuje możliwość odczytu danych z ekranu, po drugie, blokuje możliwość wprowadzania danych do uruchomionych programów. Do odblokowania zwykle konieczne jest podanie przez użytkownika hasła do systemu.

Rozwiązanie znane jest od dawna i wydawać by się mogło, że to wystarczy, ale czy tak jest faktycznie? Coraz więcej danych jest wprowadzanych i odbieranych z komputera nie tylko przy pomocy klawiatury i ekranu, ale także przy pomocy innych urządzeń. Programy do komunikacji VoIP, czy to Skype, czy aplikacja dostępna przez przeglądarkę typu appear.in czy hubl.in, po zablokowaniu ekranu nadal działają. Umożliwiają i odsłuchiwanie połączonych osób, i przekazują dane z otoczenia do nich. Zarówno za pośrednictwem audio, jak i video. Blokada ekranu co prawda wyłączy możliwość podglądu naszego rozmówcy, ale już nie wyłączy naszego webcama…

Jak na razie nie wiem nic o alternatywach dla wygaszaczy ekranu, które w momencie aktywacji blokowałyby nie tylko klawiaturę i ekran, ale dodatkowo wyłączały webcam(y) oraz wyciszały (mute) audio[2]. Pobieżne testy urządzeń z Androidem pokazują, że także na nich problem jest aktualny, przynajmniej w zakresie dźwięku. Warto po prostu pamiętać, że zablokowany komputer czy telefon w naszym otoczeniu wcale nie musi być tak do końca zablokowany…

[1] Skomentowałem u developera na blogu i wystarczy, wpisu nie będzie, sytuacja jest IMHO żenująca, więc szkoda klawiatury – jeśli ktoś ma cierpliwość, to wystarczy śledzić podlinkowane źródła.

[2] Jeśli istnieją systemy z takimi rozwiązaniami, albo samodzielne aplikacje, to chętnie poznam – u nikogo z nowszym Windowsem nie widziałem takiego rozwiązania.

Mumble, czyli alternatywa dla TeamSpeak

Powody dla powstania wpisu są dwa. Po pierwsze, pogrywam sobie czasem w World of Tanks, ostatnimi czasy niekoniecznie sam, a częściej w plutonie. Oczywiście można grać przy pomocy porozumiewania się wbudowanym chatem, czyli pisząc i używając wbudowanych komend i tak długi czas z K. graliśmy, ale przyszedł M. i namówił nas na zorganizowanie mikrofonów i słuchawek. I faktycznie, w przypadku komunikacji głosowej fun jest nieporównywalnie większy.

Korzystaliśmy z wbudowanego w grę mechanizmu, który wymaga wciśnięcia klawisza, jeśli chce się coś powiedzieć. Wykonalne, ale palców jest ograniczona ilość i w czasie gry mają lepsze zajęcia, niż obsługa głosu. Zdarza się, że się zapomni o wciśnięciu klawisza czy po prostu nie ma czasu go wcisnąć. I komunikat ginie.

Trochę zaczęliśmy myśleć o alternatywach. Ostatecznie gracze z jakiegoś powodu korzystają z TeamSpeaka… W klanie K. jako system komunikacji głosowej obowiązywał nie TeamSpeak, ale Mumble, którego nazwa zupełnie nic mi nie mówiła.

Logo Mumble

Źródło: https://en.wikipedia.org/wiki/File:Icons_mumble.svg

Rzuciłem okiem i okazało się, że jest natywna wersja linuksowa, a software to open source. I tu drugi powód powstania wpisu: TeamSpeak jest dostępny (zarówno klient, jak i serwer) na Linuksa, ale nie jest open source i dostarczana jest binarka. Tylko dla architektur i386 oraz amd64 w Debianie. Niedawno na kanale IRC ktoś pytał o tego typu chat grupowy z możliwością uruchomienia serwera na procesorze ARM. Mumble jako open source oczywiście jest dostępne także na architektury armel oraz armhf. Poza tym, lubię testować alternatywy.

Zainstalowałem serwer (można ograniczyć dostęp hasłem, domyślna konfiguracja jest prosta i wystarczająca do uruchomienia…), choć można skorzystać z serwerów publicznych. W konfiguracji serwera można też zgłosić swój serwer do katalogu publicznych.

Instalacja klienta jest równie prosta, jedyne co trzeba zrobić, to wyskalować dźwięk przy pomocy wizarda. Klient ma trzy metody włączania nadawania: non-stop (mikrofon cały czas „zbiera” – średnio wygodne dla reszty uczestników), znana z WoT aktywacja klawiszem oraz tryb najlepszy, czyli aktywacja głosem. I po to jest kalibracja, żeby przy odpowiednim natężeniu dźwięku (czyli gdy coś mówimy) klient zaczynał transmisję, ale nie zbierał cały czas tła.

Najważniejsze cechy Mumble:

  • szyfrowana komunikacja (domyślnie)
  • niskie opóźnienie
  • open source
  • wieloplatformowość (Linux, Windows, OS X)
  • niskie wymagania zasobów (serwer; jest nawet wersja serwera dla OpenWrt)
  • usuwanie echa
  • pozycjonowane audio (słychać z którego kierunku mówi osoba)
  • in-game overlay (jest wyświetlane, kto mówi)

Z ostatnich trzech nie korzystam, bo – kolejno – gramy na słuchawkach, nie ma potrzeby/nie zauważyłem, zupełnie nie mam potrzeby. Jeśli chodzi o jakość dźwięku i opóźnienie jestem bardzo zadowolony (póki co testowane na dwóch osobach na kanale, większą ilością się nie zebraliśmy). Jakość dźwięku lepsza zarówno niż w WoT, jak i na Skype (skoro VoIP porównujemy). Nie wiem na ile w tym zasługi łącz, a na ile klienta, ale jeśli tylko wszyscy w plutonie mają zainstalowanego klienta Mumble, to korzystamy z tego rozwiązania. Polecam.

Więcej o Mumble można poczytać na angielskiej stronie Wikipedii. Ale nie ma co czytać, trzeba instalować. 😉

World of Tanks – gra prawie doskonała.

Od jakiegoś czasu pogrywam w World of Tanks. Przeczytałem o grze na necie, wydała mi się interesująca, ale nie zainstalowałem. Często tak mam. Nawet bardzo często. Wolę poczytać instrukcję itp., niż instalować i grać. Bodźcem do instalacji była dopiero wizyta u szwagra, który też niedawno zaczął grać, naprawienie grafiki w tejże grze (wystarczyła aktualizacja sterowników), krótka przejażdżka czołgiem i… gra miażdży.

Zawsze lubiłem „wolne” FPS, czyli takie, które mniej polegają na refleksie i trickach, a bardziej na taktyce. Sporo czasu spędziliśmy ze znajomymi grając na lan party w Counter-Strike (1.5), potem podobało mi się mod do Enemy Territory o nazwie True Combat: Elite. Miałem też bardzo krótki, przelotny epizod z America’s Army. Wielkim fanem grania nie jestem (i nie samymi FPS człowiek żyje), przynajmniej nie na tyle, by inwestować dla każdej nowej gry w sprzęt, a Radeon 9200 SE, którego kupiłem pod CS nie do końca wystarczał na dwie ostatnie pozycje, w związku z czym nie chodziły rewelacyjnie, więc nie wciągnąłem się. Może to i lepiej?

WoT screenshot

Źródło: http://worldoftanks.eu/en/media/3/1933/

Wracając do WoT – łączy cechy FPS (bardziej TPS, that’s complicated…), ale ma też cechy RPG i trochę symulatora. W skrócie – czołg ma załogę, załoga zdobywa doświadczenie i umiejętności. Do tego – również za doświadczenie – badamy nowe moduły. Doświadczenie zdobywamy w bitwach, czyli klasycznych rozgrywkach (tu część symulatorowo-FPS-TPS). Trybów rozgrywki jest kilka, ale ogólnie sprowadzają się do tego, że albo trzeba wytłuc wszystkich przeciwników, albo zająć bazę (coś jak CTF). Do tego mamy różne klasy pojazdów (czołgi lekkie, średnie i ciężkie, niszczyciele czołgów, działa samobieżne), całkiem przyjemną fizykę i kilka rodzajów amunicji.

Fajnie jest rozwiązany system zdobywania doświadczenia – im lepiej wyszkolona załoga, tym lepsze osiągi ma czołg (szybkość, szybkość obrotu wieży, celowania, zasięg widzenia), ale nie zmienia się opancerzenie i siła ognia. Dobre połączenie, bo doświadczenie daje przewagę, ale nie czyni czołgu z doświadczoną załogą niezniszczalnym dla pojazdów bez doświadczenia czy początkujących graczy.

Gra dostępna jest jako freemium, czyli podstawa za darmo, ale za pieniądze można dokupić bonusy. W przypadku WoT bonusy to więcej miejsca w koszarach, garażu, niektóre modele czołgów oraz… trochę doświadczenia i niektóre dodatki poprawiające lekko charakterystykę pojazdu podczas bitwy. Bez problemu da się grać za darmo (i tak robię), większość rzeczy i tak będzie osiągalna, tylko wymaga więcej „pracy” w postaci grania. Wymagania sprzętowe – bardzo umiarkowane i można z wysoką miodnością grać na niskich detalach (da się grać na Nvidii 8200M).

Do pełni szczęścia brakuje mi trochę tego, żeby pojedynczy gracz nie sterował całym czołgiem, tylko pełnił rolę określonego członka załogi. Ale to już zupełnie inna gra – nawiązująca do tego pomysłu – by była. No i nie ma niestety natywnej wersji na Linuksa. Na Wine nie udało mi się uruchomić w sposób umożliwiający granie, choć niby powinno działać. Gra się instaluje i startuje, ale w losowym momencie na początku (intro/menu) następuje zwis. Podejrzewam sterowniki grafiki. W sumie mam już nowsze, ale instalacja jest dość upierdliwa (kolosalna ilość danych do pobrania i czas trwania instalacji). Ciekawostką jest to, że gra do pobierania aktualizacji domyślnie korzysta z p2p. Poza tym – miód i bardzo polecam.

Jaki serwer DNS wybrać?

Wybór serwera DNS z którego korzystamy na urządzeniu końcowym jest ważny z kilku powodów:

  • Szybkość serwera DNS. Czas oczekiwania na odpowiedzi z serwerów DNS może być istotną częścią czasu ładowania stron Jest to szczególnie widoczne na stronach z dużą ilością wklejek z różnych domen. W przypadku szybkości serwera DNS nie chodzi jedynie o opóźnienie sieci (to można sprawdzić przy pomocy ping), ale o czas udzielenia odpowiedzi. Zależy on już od większej liczby czynników: opóźnienie sieci, posiadanie bądź nie odpowiedniego spisu w cache (oczywiście lepiej, jeśli odpowiada z cache), wydajność sprzętu i oprogramowania na którym działa DNS.
  • Poprawność odpowiedzi. Nic po szybkiej odpowiedzi z serwera DNS, jeśli będzie ona błędna. W skrajnym przypadku możemy paść ofiarą spoofingu DNS i trafić na podstawioną stronę.
  • Neutralność, czyli brak cenzury. Trochę wiąże się z poprzednim zagadnieniem, ale w tym przypadku chodzi o to, że do pewnych stron w ogóle nie będzie można się dostać. O ile działanie takie ma sens przy ograniczaniu zasięgu szkodliwego oprogramowania, to może być także służyć jako ograniczenie dostępu do treści.

 

Co warto zrobić w kwestii DNS?

Jeśli posiadamy sieć lokalną z kilkoma (i więcej) komputerami, to prawie na pewno warto postawić lokalny cache DNS – dzięki temu powtarzające się nazwy będą rozwiązywane lokalnie. Dobrym i prostym rozwiązaniem dla małej sieci jest dnsmasq, dostępny także dla OpenWrt.

Poza tym, warto wybrać te serwery DNS, które odpowiadają najszybciej. Zwykle nie popełnimy dużego błędu, jeśli wybierzemy serwery zalecane przez naszego dostawcę sieci lub wskazane automatycznie.

Czy zawsze lokalny serwer DNS lub oferowany przez naszego dostawcę Internetu jest najlepszy? Niestety nie. Prawie zawsze będzie on najszybszy pod względem opóźnienia sieci, ale już zawartość cache bywa różna. Szczególnie w przypadku lokalnego serwera może się okazać, że jego cache jest pusty dla większości zapytań. Na szczęście zwykle narzut lokalnego serwera nie jest duży.

Jeśli nasz komputer łączy się z internetem za pośrednictwem wielu sieci (wifi, połączenia GSM), można pomyśleć o postawieniu lokalnego cache DNS bezpośrednio na nim.

Jak najprościej znaleźć najlepsze serwery DNS?

Istnieje do tego darmowy i wolny program o nazwie namebench, służący do benchmarku serwerów DNS. Działa na wszystkich systemach, wersję dla Windows i Mac OS X można pobrać ze strony, w przypadku Linuksa zapewne jest w dystrybucyjnym repozytorium. Domyślnie działa z GUI, ale nie jest ono niezbędne – program daje się również uruchomić w konsoli. Ważne jest, żeby nie uruchamiać testu od razu, tylko najpierw przeczytać jak program działa i zastanowić się, co chcemy zrobić. Dlaczego? Ano dlatego, że pierwsze uruchomienie jest najbardziej zbliżone do rzeczywistych warunków ze względu na oryginalną, niezakłóconą poprzednimi testami zawartość cache testowanych serwerów DNS, czyli najbardziej miarodajne.

Jak korzystać z namebench?

W polu nameservers warto podać, oddzielone spacjami przynajmniej: DNS lokalny w sieci (jeśli posiadamy), serwery DNS naszego ISP. W przypadku Polski dodatkowo warto podać serwery DNS Orange (najpopularniejsze to 194.204.159.1 i 194.204.152.34) – kiedyś były dostępne tylko dla klientów TPSA, ale obecnie wyglądają na otwarte – działają z każdej sieci, z której testowałem – i osiągają dobre wyniki. W moim przypadku były szybsze, niż serwery DNS mojego ISP.

Namebench - ekran startowy
Ekran startowy namebench. Źródło: strona domowa programu namebench.

Poza tym, zaznaczamy globalne publicznie dostępne serwery cache’ujące oraz serwery regionalne. Można zaznaczyć sprawdzanie pod kątem cenzury i podzielenie się uzyskanymi wynikami. Lokalizacja to oczywiście Polska, query data source – możemy skorzystać z historii stron którejś z naszych przeglądarek, wyniki będą wówczas bardziej zbliżone do realnych.

Następnie uruchamiamy test i na kilka-kilkanaście minut zostawiamy komputer w spokoju. Po tym czasie otrzymamy wyniki: propozycję trzech najlepszych dla nas – zdaniem programu – serwerów DNS (kolejność ma znaczenie) oraz szczegółowe dane i wykresy. Kluczowy dla szybkości działania sieci jest oczywiście średni czas odpowiedzi z serwera DNS.

Na koniec uwaga: jeśli najszybsze serwery nie należą do naszego ISP ani nie są otwartymi, publicznymi serwerami, może się zdarzyć, że ich właściciel ograniczy za jakiś czas do nich dostęp.

 

Happy eyeballs wg Microsoft, czyli implementacja IPv6 w Windows 8.

Nietypowo nie będzie o Linuksie, a o Windows, który bardzo rzadko pojawia się na tym blogu.  Konkretnie o Windows 8 i IPv6.

Przy okazji wykładu na PLNOG na temat happy eyeballs[1] dowiedziałem się, jak to robią w Windows 8. Otóż Windows 8 określa, czy ma dostęp do sieci IPv6 poprzez pobranie pliku. Z serwera Microsoft[2]. A następnie cache’uje wynik na… bagatela 30 dni. Wystarczy, że w momencie sprawdzania sieć IPv6 albo serwer Microsoftu nie będą dostępne i żegnamy się z IPv6. Na miesiąc. Poza tym, to, że udało się połączyć z serwerem Microsoft nie oznacza, że istnieją trasy do wszystkich innych hostów IPv6. Więc rozwiązanie „takie sobie” (taki ładny eufemizm, zamiast sporej ilości przekleństw w kierunku twórców pseudostandardów w Microsoft).

W trakcie prezentacji przyszedł mi do głowy dirty hack (rozmowa po prezentacji sugeruje, że jak najbardziej powinien działać), który spowoduje, że system Windows będzie zawsze myślał, że ma dostęp do sieci IPv6. Do pliku hosts dopisujemy linię, która powoduje, że ipv6.msftncsi.com jest rozwiązywany na adres IPv4. Czyli plik jest pobierany z serwera IPv4, czyli system zawsze będzie próbował korzystać z IPv6. Tak, popsuje to mechanizm happy eyeballs (ale i tak był zepsuty). Może się przydać np. testerom, albo zwyczajnym fan(atyk)om IPv6.

Przy okazji, w prezentacji pojawia się Your task – check ipv6.msftncsi.com availability, które po sprawdzeniu pachnie mi lekkim FUDem. Przy sprawdzeniu co pięć minut dwóch rzeczy: pingowania po domenie i możliwości pobrania pliku, w ciągu 48h[3] nie zdarzył mi się ani jeden błąd. A dodatkowo sprawdzam przez tunel od HE, czyli potencjalny element, który może zawieść. Być może wyglądało to kiedyś gorzej i się poprawiło. To, że coś jest potencjalnie OKDR nie oznacza, że jest takie w praktyce. Bo wydaje się działać. Zresztą wystarczy zrobić farmę serwerów z adresem anycast i będzie to działać. Warto też sprawdzić:

host ipv6.msftncsi.com
ipv6.msftncsi.com is an alias for ipv6.msftncsi.com.edgesuite.net.
ipv6.msftncsi.com.edgesuite.net is an alias for a978.i6g1.akamai.net.
a978.i6g1.akamai.net has IPv6 address 2001:2030:0:f::d59b:9892
a978.i6g1.akamai.net has IPv6 address 2001:2030:0:f::d59b:9888

Czyli nie tyle serwery Microsoft, co Akamai (pozdrowienia dla f.). Nie jedno, ale 2 IP. Prawie na pewno rozproszone geograficznie i z wykorzystaniem anycastu. Nie zmienia to faktu, że dostępność tych IP nie oznacza dostępności po IPv6 każdego innego hosta („dziury” w routingu).

Źródła:

1. Prezentacja Krzysztofa Mazepy z EURONOG I PLNOG 2012 pt. IPv4 vs IPv6 IPv4 vs. – Happy Eyeballs.
2. Windows 8 moves to IPv6 Internet.

[1] Jest tylko po angielsku, więc w telegraficznym skrócie dla niespikających: w momencie połączenia host próbuje się łączyć po IPv6 i IPv4, jeśli ma łączność o zbliżonym opóźnieniu po obu protokołach, to preferuje IPv6. Zaleta jest taka, że w przypadku braku dostępności IPv6 nie czeka kilku(nastu/dziesięciu) sekund na timeout – użytkownik dostaje praktycznie bez opóźnienia content i oczka się cieszą.

[2] Konkretnie http://ipv6.msftncsi.com/ncsi.txt Zawartość jest stała i jest to po prostu Microsoft NCSI Jak widać wyżej, serwer jest Akamai.

[3] Tak, wiem, bardzo mała próbka, będzie aktualizowane wyniki z dłuższego okresu poniżej.

PS Kiedyś opisywałem, jak sprawdzić IP komputera pod różnymi systemami. Dodałem informację o sprawdzaniu łączności po IPv6.

UPDATE: Miała być statystyka z dłuższego okresu, to będzie. Minęło 16 dni. W tym czasie, przy sprawdzeniach co 5 minut, zanotowałem 75 braków odpowiedzi na ping i 26 błędów w pobraniu pliku przez WWW. Ale! Co minutę sprawdzam też, czy drugi koniec tunelu się pinguje po IPv6. Po wyeliminowaniu równoczesnego braku odpowiedzi z końca tunelu i błędów do hosta MS, zostało 49 błędów pingowania i 0 (zero) błędów pobrania pliku przez WWW. Czyli raczej błędy tunelu, niż rozwiązania MS. Jakby się ktoś zastanawiał, jak to możliwe, że plik się pobrał, przy braku odpowiedzi na ping do hosta – zapewne kwestia dłuższego timeoutu.

Recenzja testu ultrabooka.

Test ultrabooka i konkurs to jedno, teraz pora na recenzję testu, czyli co mi się podobało w teście i konkursie, a co nie.

Przede wszystkim, fajnie, że konkurs w ogóle miał miejsce – jest szansa na pomacanie sprzętu przed zakupem, zapoznania się na żywo, sprawdzenia, jak sobie Linux radzi (tylko teoretycznie niestety, patrz niżej) itp. I żadna recenzja czy parę minut klikania w sklepie tego nie zastąpią, niestety. Dowiedziałem się, że nadal nie lubię ekranów glare, że klawiatura przy 13,3″ to pełen wymiar i może być zupełnie wygodna i że touchpad może być nie tylko używalny, ale nawet wygodny. Co prawda mysz jest wygodniejsza i pewnie na biurku podłączę, ale przy dobrym touchpadzie mogę ją sobie darować przy korzystaniu mobilnym.

Sprawa druga to to, co było podkreślane od początku przez wiele osób – jeden dzień to stanowczo za mało na test. Zwyczajnie mało czasu, żeby dokładnie przeklikać wszystko i poużywać, jeśli pojawią się problemy, żeby je rozwiązać itd. Do tego dochodzi kwestia konieczności poświęcenia jednorazowo sporej ilości czasu, wypadających niespodziewanych rzeczy niezwiązanych z testem itp. Jakby do tego dodać czas na synchronizację danych (żeby móc używać komputera w takich samych warunkach, jak dotychczasowy), to robi się dramat.

Kolejna sprawa – zakres grzebania w sprzęcie i odpowiedzialności. Jak pisałem w komentarzu pod wpisem konkursowym, istnieje coś takiego jak ubezpieczenie od zepsucia sprzętu, poczynając od jego zrzucenia, zalania, aż po naprawę po np. nieudanej aktualizacji BIOSu (to ostatnie kumpel niedawno sprawdzał w praktyce). Zdecydowanie warto wydać parę zł i skorzystać, dając testującym więcej komfortu. Tak samo zmiana systemu operacyjnego w urządzeniu – to tylko komputer, komputery pracują pod różnymi OS. W przypadku tak krótkiego testu co prawda zmiana OS średnio ma sens, ale przy dłuższym teście na pewno warto zezwolić na taką zmianę, a grzebanie w partycjach to wręcz konieczność.

Kolejna kwestia, czyli bezpieczeństwo. Czyli główny powód, dla którego zrezygnowałem z testu smartphone’a. Miałem opory przed podaniem haseł do serwisów na „niepewnym” (czytaj: nie moim) systemie, który na dodatek za moment ode mnie wyjeżdża nie wiadomo dokąd (a weź tu wyczyść dokładnie Windowsa…). Ostatecznie jedynym hasłem, które podałem było to do wifi. Zakładanie testowych kont jest pracochłonne i nadal nie korzystamy z systemu identycznie, jak normalnie. A jeszcze jakbym miał swoje dane skopiować na taki system? W żadnym razie. Możliwość postawienia swojego systemu, wyczyszczenia (wyzerowania) partycji to minimum. Jak rozwiązać sprawę przywrócenia oryginalnego systemu? Prosto: pendrive przywracający domyślny system i bootowanie z USB załatwią sprawę, niezależnie co się stanie z oryginalnym systemem na dysku. Proste, wygodne, bezpieczne i działa.

Organizacyjnie: trochę do życzenia pozostawiała komunikacja dotycząca konkursu. Papiery, które miały przyjechać przed przekazaniem sprzętu, a nie przyjechały (z tego co czytam, nie tylko ja nie dostałem umowy wypożyczenia przed otrzymaniem sprzętu), trochę zamieszania z terminami. Fajnie by było, jakby w przypadku przybycia kuriera ze sprzętem, a bez umowy można się dodzwonić do kogoś i wyjaśnić (no ale ostatecznie nie mój problem, że dostaję komputer bez umowy, prawda?). Fajnie też, żeby kurier przywożąc „upominki na otarcie łez” (dziękuję, zgrabny pendrive o słusznym rozmiarze, przyda się pod linuksowe live’y) i papiery do podpisania (umowa wypożyczenia po oddaniu sprzętu? po co?) zapowiedział wcześniej, co wiezie. Albo ktoś, kto wysyła, żeby zapowiedział. Bo osoba zdatna do odbioru przesyłki może być dostępna, ale nie musi być jednocześnie osobą mogącą podpisać umowę.

Pewnie jakby konkursy tego typu się powtarzały, to się warunki dotrą i będzie lepiej. Na co – w nadchodzącym roku – liczę. 😉

Recenzja ultrabooka Acer Aspire 3S.

Testowany sprzęt

Acer Aspiro S3

Źródło: http://blox.blox.pl/2011/11/Zaproponuj-oryginalny-sposob-na-przetestowanie.html

Nie chcę przepisywać dokumentacji technicznej, więc krótko: testowany – na potrzeby tego konkursu – był ultrabook Acer Aspire S3, z 4GB RAM, Intel Core i5, 320 GB HDD.

Rozpakowanie

Pierwsze, co rzuca się w oczy po wyjęciu z pudelka to niewielka grubość sprzętu. W porównaniu z tradycyjnymi laptopami, ultrabook Acera jest cieniutki i odruchowo łapie się go jedną ręką. Drugie, co widać porównując z innym laptopem, to fakt, ze jest stosunkowo szeroki – przy 13,3″ jest szerszy od mojego starego laptopa z czternastocalowym ekranem. Zasługa panoramicznego ekranu. Jest jednak płytszy, przez co wygodnie trzyma się go na kolanach (bardziej: kolanach i brzuchu, bo łóżku siadam w pozycji półsiedzącej oparty o ścianę, co pewnie jest niezdrowe dla kręgosłupa, ale za to wygodne), a i na biurku zajmuje niewiele miejsca. Wierzch ma aluminiowy, wygląda to solidnie i estetycznie. Niestety, laptop nie składa z samego wierzchu, a spód jest z plastiku. Co prawda wygląda on solidnie, ale jednak to plastik. Na spodzie cztery spore, gumowe, solidnie wyglądające stopki. Zdecydowanie pozytywne pierwsze wrażenie.

Przez zupełny przypadek, już pakując laptopa do oddania zauważyłem lekkie przesunięcie/niespasowanie klapy ekranu względem dołu. Z lewej strony było jakieś 1-2 mm przerwy, a z prawej na styk lub nawet ekran odrobinę wystawał poza obrys dolnej części. W niczym nie przeszkadza, praktycznie niezauważalne i być może kwestia danego egzemplarza, ale z kronikarskiego obowiązku piszę o tym.

Gniazda

Na prawym boku slot na karty SD, na lewym gniazdo na słuchawki i… tyle po bokach. Z tyłu gniazdo zasilania, HDMI oraz dwa gniazda USB. Umieszczenie gniazd USB nie podoba mi się – włożony pendrive czy modem będzie niewidoczny i wydaje mi się, że trzymając laptopa na kolanach łatwo o nim zapomnieć i wyłamać gniazdo, szczególnie przy dłuższym urządzeniu. Tak samo trudno będzie zerknąć na diody na takim urządzeniu. Na dodatek gniazda umieszczone są blisko siebie i może być problem z włożeniem dwóch pendrive’ow naraz (moje nie weszły, choć raczej przeciętne są). Popularny problem w wielu laptopach, niestety. Natomiast pendrive i zwykła wtyczka powinny zmieścić się bez problemu. Nie ma tez napędu optycznego (i dobrze, uważam napędy optyczne montowane w laptopach za nieporozumienie) – w końcu to ultrabook.

System operacyjny

Rzut oka na dostępne gniazda i już wiedziałem, że raczej Debiana nie potestuję – brak portu ethernet, a ze sterownikami do wifi Atherosa wiedziałem, że  raczej będę miał problem (nie mam ich na moim live). Wg strony z opisem Atheros na Debianie karta wifi powinna działać bez problemu na Wheezy. Niestety, z budowaniem (a raczej uruchamianiem) live Wheezy’ego miałem problem – zapewne uroki wersji testowej. Dodatkowo, warunki testu zabraniały zmiany systemu operacyjnego na dysku, dwa pendrive’y nie wchodziły jednocześnie do gniazd, a czas testu (i mój czas na testowanie) był mocno ograniczony, więc także podanie sterowników na kluczu USB nie wchodziło w grę i skazany byłem tylko na posiadaną wersję live. Żałuję, że nie pomyślałem wcześniej o karcie ethernetowej na USB lub pożyczeniu napędu optycznego na USB (odkryłem, że – z niezrozumiałych dla mnie przyczyn – większość dystrybucji Linuksa live daje tylko w wersji iso). Cóż, mea culpa, testerem się nikt nie rodzi, a wszystkiego przewidzieć nie sposób.

Udało mi się wyciągnąć trochę informacji spod Linuksa i zamieszczam odnośnik do nich na końcu wpisu, ale wszystkie testy robiłem na Windows 7, który przybył zainstalowany na sprzęcie, na domyślnych ustawieniach. Na pierwszy rzut oka wygląda, ze sprzęt powinien być w miarę bezproblemowy pod Linuksem, a największym problemem prawdopodobnie będzie wspomniana karta wifi (obsługiwana jednak w nowszych kernelach).

Start

Pora włączyć sprzęt. Pierwszym prawdziwym zgrzytem jest przycisk power – jakiś taki luźny, plastikowy, latający na boki. Zdecydowanie sprawiający mało solidne, wręcz tandetne wrażenie. Nie wygląda to, niestety, na cechę pojedynczego egzemplarza. Może się czepiam, bo żonie nie przeszkadzało, nawet po zwróceniu uwagi na ten szczegół. System był już zainstalowany i wystartował szybko (nie mam porównania z aktualnymi Windowsami), tylko trochę nękając mnie tradycyjnymi windowsowymi alertami o aktualizacjach itp.

Ekran

Jeśli chodzi o ekran – po przygodzie z tym ultrabookiem nadal pozostaję zdecydowanym zwolennikiem ekranów matowych. Zapalona lampa w pokoju wieczorem wyraźnie się odbijała. W dzień też widać odbicie i to nawet na stosunkowo jasnych tłach. O ustawieniu laptopa tyłem do okna należy zdecydowanie zapomnieć. Latem, na zewnątrz itp. chyba bym się zwyczajnie denerwował.

Mam też wrażenie, że piksele są za duże przy tej wielkości ekranu, albo że natywna rozdzielczość ekranu jest zbyt niska. W każdym razie trzymając laptopa na kolanach (kolejna możliwa przyczyna – zwykle mam większą odległość od ekranu) widziałem kanciki liter i miałem wrażenie, ze pojedyncze piksele też. Nie wiem, czy to kwestia antyaliasingu w systemie, przyzwyczajenia z ekranów matowych, odległości czy samej matrycy, ale „coś tu nie gra”.

Ekran 13,3″ wcale nie wydaje się za mały. Może trochę za mało miejsca w pionie, ale to cecha chyba każdego panoramicznego ekranu. Trzymając Acera na kolanach pracuje się równie wygodnie, co na 15,6″ przy biurku. Przy pracy przy biurku też nie czuć, że brakuje miejsca. Znaczy: 13,3″ daje rade do normalnego korzystania z komputera. Celowo nie piszę nic o kątach widoczności w poziomie i pionie – nie zwracałem uwagi zbytnio uwagi, bo to raczej sprzęt pomyślany dla jednej osoby.

Jak dla mnie – wielka szkoda, że ekran nie matowy i ew. nie w wyższej rozdzielczości.

Klawiatura

Krótko mówiąc, klawiatura jest OK. To mój pierwszy dłuższy kontakt z popularnymi ostatnio klawiaturami, gdzie każdy klawisz jest oddzielnie. Acer Aspire S3 ma drugi w kolejności z moich ulubionych układów klawiszy w laptopach (patrz zdjęcie na początku wpisu). Zdecydowanie logiczne rozmieszczenie klawiszy (zwłaszcza najczęściej używane ciszej/głośniej i jaśniej/ciemniej są na kursorach, razem w bloku razem z pgup, pgdn, które z kolei, użyte wraz z klawiszem Fn dają odpowiednio home i end), wielkość nieodróżnialna od pełnowymiarowej. Jedyne co mogłoby być lepsze, to większe kursory, bo są pomniejszone, ale – trzeba przyznać – takie jakie są nie przeszkadzały mi w żaden sposób, choć nie muszę być wyznacznikiem – mam raczej chude palce. Klawisz enter stylizowany optycznie na odwrócone L, ale tak naprawdę górna, nieoddzielona optycznie część to backslash.

Przy pisaniu tego tekstu na piratepad.net i jednoczesnym słuchaniu muzyki na YT nigdzie się wyraźnie nie nagrzewa. Podobnie po kilkuminutowym dociążeniu procesora na OK 80%. Przeciwnie, znalazłem biegun zimna w okolicy klawiszy F2, 2, F3 i 3. Prawdopodobnie efekt działania wiatraczka. Niepożądany, rzecz jasna.

Ogólnie klawiatura fajna i pisało mi się bardzo miło, co widać po długości tego wpisu. 😉

Wiatrak

Skoro już o wiatraku mowa, to pracuje praktycznie cały czas, przynajmniej w przypadku pracy na kablu. Bez kabla zresztą tez włącza się często. Nie jest to specjalnie uciążliwe, bo jest cichy, niemniej słyszalny z odległości obsługującego komputer, jeśli nie gra muzyka i nie ma hałasów zewnętrznych. Po włączeniu czegoś, co bardziej obciąży system, wiatrak staje się jeszcze bardziej słyszalny i zaczyna już trochę przeszkadzać.

Niezbyt szczęśliwe jest umiejscowiony wylot ciepłego powietrza – tył, okolice lewej strony. Jeśli weźmiemy go do łóżka, to lewa noga będzie lekko zasłaniać wylot. Jeśli dodamy do tego koc albo kołdrę (tak, wiem, nie powinno się tak korzystać z komputera, ale jednak od ultrabooka wymagałbym większej swobody w tym względzie, niż od typowego laptopa), chłodzenie najprawdopodobniej będzie mocno upośledzone. Mogło być lepiej.

Touchpad

Moim zdaniem OK, a piszę to ja, który nie cierpię touchpadów, praktycznie na nich nie pracuję i jeśli tylko można, podpinam mysz. Czułość OK, nic samo się nie klika. Intuicyjne działanie scrolla, kliknięcia itp. Może to po części zasługa Windowsa i jego ustawień? W każdym razie touchpad bardzo mi się podobał – dało się wygodne pracować. i nie tęskniłem za podłączeniem myszy.

Głośniki

Po uruchomieniu YouTube bardzo niemiło się rozczarowałem. Dźwięk zwyczajnie słaby i jakiś przytłumiony, pierwsze skojarzenie z komórka w autobusie. Niewielkie szczeliny stanowiące wyloty głośników umieszczone są po bokach na dole. Szczególnie słabo przy trzymaniu laptopa na kolanach – na stole zachowywał trochę lepiej. W trakcie trzymania na kolanach już podstawienie otwartych dłoni w okolice głośników w celu umożliwienia „odbicia” dźwięku poprawia wrażenia odsłuchowe.

Po porównaniu z innym laptopem musiałem złagodzić ocenę. Acer nie brzmi gorzej, pewnie po prostu za bardzo przywykłem do słuchawek lub muzyki odtwarzanej z komputera przez wieżę z normalnymi głośnikami.

Wyważenie

Rozmieszczenie środka ciężkości OK, przynajmniej trzymając Acera na kolanach nie miałem wrażenia, ze chce się przewrócić itp. Po postawieniu na biurku przy mocniej odchylonym ekranie jednak łatwo „leci” do tyłu. Na podstawce do laptopa (wersja minimal, czyli dwa korki od wina – korzystam tak „od zawsze”), lekko podnoszącej tył nie ma już takiego wrażenia.

Akumulator

Akumulator wystarczał na lekko ponad 3h słuchania muzyki z YouTube i pisania (tego) tekstu na piratepad na wifi, przy minimalnie tylko zmniejszonej jasności ekranu (dla komfortu – nie lubię zbyt jasnych ekranów, rozkręcenie jasności na maksa od razu mnie odrzuca). Nie wiem jak ma się to do deklaracji producenta, ale na coś, co miało by być bardzo mobilne – raczej niewiele.

Podsumowanie

Ciężko jest pisać coś konkretnego przy tak krótkim okresie testu (miał być 1 dzień, trafiłem weekend, ale rodzina też ma swoje prawa, w praktyce testowałem, czyli klikałem, parę godzin w sobotę i parę godzin w niedzielę…), na dodatek na niedostosowanym pod siebie systemie operacyjnym. Bardziej jest opisane pierwsze wrażenie. Nie testowałem (w ogóle) kamery, a wifi – tyle, co przeszedłem się po domu – zasięg bdb, także okolicznych sieci, więc karta wygląda na czułą. Szybkość powrotu z hibernacji – cóż, nie miałem za bardzo czasu się tym bawić. Zahibernował/wszedł w stan uśpienia parę razy po zamknięciu ekranu, gotowy do pracy był faktycznie w chwilę po otwarciu, ale na czas (i sposób wyłączenia) nie zwróciłem uwagi.

Jeśli chodzi o naprawdę mobilny sprzęt, do użycia w ruchu, to wydaje mi się nienajlepszym wyborem. Za dużo wad – biorąc pod uwagę kwestię gniazd z tyłu, wylotu wiatraka i głośników raczej wymaga podstawki przy korzystaniu. Czyli jako zamiennik tableta, tyle, ze z klawiatura, raczej się nie nadaje. Czas pracy na baterii nierewelacyjny. W gorszych warunkach oświetleniowych problemem będzie ekran.

Za to raczej dobrze nadaje sie do – nawet częstego – przenoszenia z miejsca na miejsce i – po przeniesieniu – korzystania „stacjonarnie”. W takim przypadku mamy lekki, w pełni funkcjonalny, wydajny komputer. Na dodatek, z uwagi na pomniejszony rozmiar i wagę, znacznie łatwiejszy do przeniesienia od typowego laptopa. Gabarytowo bliżej mu do zeszytu A4 w twardej okładce, niż laptopa. Jeśli nie potrzebujemy pendrive’a i nie będziemy trzymać go na kołdrze/kocu, to na sprzęt „do łóżka” prawdopodobnie też się nada.

A link do zrzutów danych spod Linuksa – niebawem, po napisaniu stosownego wpisu (i poza konkursem). Obiecane dane Acer Aspire S3 spod Linuksa.

Jak sprawdzić IP?

Ten wpis to takie małe HOWTO i przegląd zagadnienia dla mniej zaawansowanych. Zagadnienie ogólne to jak sprawdzić IP? Można to rozumieć przynajmniej na dwa sposoby. Pierwszy to z jakim IP jesteśmy widoczni w sieci, drugi to jakie IP ma ustawiony mój komputer.

Sprawdzenie IP widocznego w Internecie.

Generalnie, jeśli po drodze nie ma jakiejś zaawansowanej magii typu serwer proxy czy kreatywne przekierowania lub równie kreatywny routing, to do wszystkich serwisów w Internecie łączymy się z takiego samego IP. Z jakiego? Najprościej sprawdzić w logach dowolnego serwera, jeśli taki posiadamy. Jeśli nie, wystarczy skorzystać z którejś ze stron do sprawdzania IP:

Ostatnia ze stron umożliwia również sprawdzanie w sposób automatyczny, przyjazny programistom raz na 5 minut (szczegóły w FAQ na stronie).

Spawdzanie swojego IP pod Linuksem

Konfiguracja sieci w Debianie i Ubuntu znajduje się w /etc/network/interfaces, ale niekoniecznie znajdziemy tam nasz adres IP, szczególnie, jeśli jest on pobierany z serwera DHCP. Bieżącą, działąjącą konfigurację sieci z przydzielonymi adresami pozwoli nam za to zobaczyć polecenie ifconfig (w Debinanie przez zwykłego użytkownika należy wywołać z pełną ścieżką, czyli /sbin/ifconfig). Inna metoda, o ile mamy zainstalowany pakiet iproute, to wpisanie ip address. Albo, krócej ip a.

Sprawdzanie IP komputera pod Windows

Metoda najdoskonalsza, czy w wierszu poleceń. Wybieramy Start -> Uruchom wpisujemy cmd i naciskamy klawisz Enter. Pojawi się czarne okno w którym możemy pisać. Wpisujemy ipconfig i naciskamy enter. Jeśli chcemy więcej danych, wpisujemy ipconfig /all (znowu zatwierdzając enterem). Dla porządku jeszcze niezawodne polecenie diagnozujące sieć opartą o DHCP – ipconfig /renew. Na pewno działa pod Windows 2000, Windows XP, Vistą i zapewne pod Windows 7 (tego ostatniego nie sprawdzałem).

Sprawdzanie działania IPv6

Trzy strony pozwalające na sprawdzanie, czy nasz komputer obsługuje łączność, albo inaczej czy działa IPv6. Każda ma swoje wady i zalety i sprawdza trochę co innego.

Odzyskiwanie miejsca w systemie (Linux, Windows).

Używany system ma tendencję do powolnego gubienia miejsca. Niezależnie od tego czy mamy w systemie porządek, czy nie, z czasem przybywa rzeczy, których nie potrzebujemy. Z jednej strony są to bardzo potrzebne pliki, których po prostu szkoda skasować (chociaż tak naprawdę nigdy już ich nie otworzymy), z drugiej nieużywane pakiety, konfiguracje usuniętych pakietów, pliki tymczasowe itp.

O ile z pierwszymi nie bardzo można sobie poradzić inaczej, niż samodzielnie utrzymując porządek (sortowanie do katalogów, kasowanie zbędnych rzeczy) i ręcznie usuwając pliki, to w przypadku tych drugich można sobie pomóc w czyszczeniu systemu różnymi automatami i półautomatami.

Pierwszy złodziej miejsca w systemie to cache apt-a, czyli /var/cache/apt/archives. Leżą tu paczki deb instalowanych pakietów. We wszystkich wersjach, także tych starszych. Praktycznie nigdy nie będą potrzebne, więc z czystym sumieniem możemy je skasować: wajig clean (lub, bardziej kanonicznie apt-get clean).

Drugi popularny złodziej miejsca to locale, czyli różne wersje językowe dla danego programu. Zwykle nie potrzebujemy dokumentacji itp. po hiszpańsku, włosku czy chińsku. Rozwiązanie: localepurge (po uprzednim skonfigurowaniu, fajnie jakby coś jednak zostało…).

Potem można zobaczyć, czy nie zostały w systemie pliki konfiguracyjne po usuniętych pakietach. Przy okazji sprawdzimy, które pakiety zajmują najwięcej miejsca: wajig sizes. Status inny niż installed oznacza, że raczej możemy się pozbyć pakietu w całości, czyli z konfigami (wajig purge <pakiet>).

Na koniec jeszcze deborphan (albo wersja ładniejsza w curses czyli orphaner) i usuwamy zainstalowane na potrzeby spełnienia zależności niepotrzebne pakiety (głównie biblioteki).

Tu się zwykle sprzątanie kończy. No dobrze, można jeszcze skorzystać z jednego z przydatnych poleceń i spojrzeć, które katalogi zajmują najwięcej miejsca (du –max-depth=1 -b | sort -n) i ręcznie pousuwać zbędne rzeczy (typu cache googleearth).

Dłużej używane systemy mają tendencję do gromadzenia pakietów z poprzednich wersji (szczególnie, jeśli korzysta się z wersji niestabilnej lub miesza kilka wersji systemu). Można je łatwo wytropić (i usunąć) korzystając z opisanego sposobu: wajig versions | grep -v squeeze.

A dziś odkryłem wisienkę na czubek tortu: BleachBit. Narzędzie jest wieloplatformowe (Linux, Windows) z funkcjami typowo Debianowymi (bardziej Ubuntu pewnie) i zajmuje się takimi cichymi złodziejami miejsca jak cache różnych aplikacji. Poza tym, że sięga tam, gdzie inne automaty nie sięgają, umie też czyścić rzeczy typowo systemowe: wspomniany cache apta, nieużywane lokalizacje (twórcy BleachBit twierdzą, że robi to znacznie skuteczniej, niż localepurge, faktycznie znalazł więcej).

Posiada zarówno miłą klikalną wersję GUI (z której korzystałem) jak i interfejs CLI (nie próbowałem). Do tego dobre podpowiedzi do opcji (ostrzega przed opcjami powolnymi i potencjalnie niebezpiecznymi). Działa bardzo fajnie, więc zdecydowanie polecam, jeśli ktoś planuje porządki w systemie (a chyba każdy prędzej czy później staje przed pytaniem jak odzyskać miejsce w systemie?). Użycie jest proste: najpierw wybiera się, co chce się usunąć, potem jest podgląd plików do usunięcia (warto spojrzeć co będzie usuwane – wywala np. pliki bak i inne tymczasowe – czasami może tam być coś pożytecznego…). Program dba o prywatność użytkownika – jako opcja dostępne jest nadpisywanie zawartości kasowanych plików przed ich usunięciem.

Jedyne do czego można się przyczepić, to spolszczenie. Zapewne w oryginale był vacuum (bazy danych), a został… odkurzacz. I parę innych kwiatków tego typu, ale IMHO nie rzutuje na całość.

Nie o takie CUDA chodziło…

Kupując laptopa wziąłem pod uwagę kartę graficzną (nie, żeby to było jakieś istotne kryterium, bo 99,9% spędza w 2D). W szczególności cieszyło mnie wsparcie dla CUDA – nawet mam plan zabawy w programowanie tego w chwili wolnej (czyli pewnie nigdy, ale…). Co prawda jest to niski model karty (Nvidia 8200M), na dodatek wersja mobilna i ze współdzielonym RAM, ale liczyłem, że w porównaniu do CPU to będzie ogień, czyli rząd wielkości szybsze.

Niedawno miałem okazję przetestować wydajność komputera, a zwłaszcza CUDA. Przy pomocy BarsWF (Windows only) zrobiłem szybki test. Wynik nierewelacyjny – ok. 45 M/sek, przy czym po 15 M/sek robi każdy rdzeń procesora i tylko 15 M/sek grafika. Nie wiem, czemu tak słabo (z tego, co rozmawiałem, sterownik nie powinien mieć wiele do powiedzenia – bardziej CUDA działa albo nie działa). W tej chwili jest standardowy z Windows Vista (system widzi ją jako 9200 IIRC).

Jakieś sugestie, jak zwiększyć wydajność CUDA na Nvidia 8200M? Wydajność na poziomie kolejnego rdzenia procesora to IMHO porażka. Sugerowane narzędzia do diagnostyki pod Windows (taktowanie karty, temperatura karty itp.)? Ograniczeń i problemów z przegrzewaniem się laptopowych Nvidii serii 8xxx jestem świadom, bardziej chciałem potestować, ile da się wycisnąć maksymalnie z tego sprzętu, niż liczyć coś produkcyjnie.

PS. Szczególnie wdzięczny byłbym, gdyby ktoś z podobną grafiką (Nvidia 8200M) pochwalił się swoimi wynikami z BarsWF.