Netcamp po raz pierwszy.

Nieco o Netcampie słyszałem, ale nigdy nie miałem okazji się wybrać. Albo mnie nie ciągnęło, albo nie miałem czasu. Wczoraj pierwszy raz nawiedziłem imprezę, głównie za sprawą prezentacji (współ)prowadzonej przez Malina. Krótkie wrażenia poniżej.

Organizacja Netcampu

Tematy były trzy, z czego okazało się, że w sumie tematycznie prezentacja na którą przyszedłem (FilesTube) jest najbardziej odległa od moich zainteresowań. Założenia prowadzenia prezentacji (szczytne) są spisane na stronie. Pierwszy mały zgrzyt – na miejscu, kilkanaście minut przed startem, prelegenci dowiedzieli się, że „ze względu na oszczędność czasu na podłączanie sprzętu” nie będą mogli prowadzić na swoim sprzęcie. Co prawda stanęło na tym, że i tak każdy prowadził na swoim sprzęcie (nawet na jednym Linuksie było – dało się uruchomić rzutnik ;-)), ale niesmak pozostał – o takich rzeczach uprzedza się grubo wcześniej, albo nie wygłupia się z takimi ograniczeniami – skoro ktoś chce „przymierzyć” wcześniej, czy wszystko działa, ew. skonfigurować, a potem tylko podłączyć (get real, i tak były przerwy po 10-15 minut między prezentacjami), to nie widzę sensu utrudniania.

Kolejne dwa minusy to: brak miejsca na kurtki/płaszcze (może coś było, ale słabo eksponowane, bo wielu ludzi siedziało z kurtkami) oraz słaba wentylacja. O ile kiepską wentylację jestem w stanie przyjąć do wiadomości (chociaż można przynajmniej w przerwie wietrzyć – w czasie prezentacji hałas z ulicy może przeszkadzać), to szatnię warto wyeksponować (jeśli jest) lub zrobić jakąś (zwykłe wieszaki w liczbie kilku starczą). No i jak widać, że minimum połowa ludzi kisi się z kurtkami, to można – chociażby zapowiadając przerwę – powiedzieć o szatni (jeśli jest). Tyle krytyki strony organizacyjnej – poza tym było OK, bez zgrzytów ze sprzętem i prowadzeniem.

Prezentacja pierwsza

Prezentacja pierwsza – klaster obliczeniowy na bazie komputerów poleasingowych. Trochę się kiedyś interesowałem tematyką sprzedaży mocy obliczeniowej i… to nie działa. Projekt cpushare.com (dead link) jest może nie tyle martwy, co nierozwijany, a była szansa na to, że każdy może handlować (w obie strony) mocą obliczeniową. Tymczasem założenia w prezentacji to – firmy pozbywają się sprawnego sprzętu (rzędu PIV 1GB RAM) po okresie leasingowym (płacąc firmie zajmującej się utylizacją), istnieją chętni na kupno dużych ilości mocy obliczeniowej, superkomputery są drogie (Galera ok. 7 mln zł), a koszty eksploatacji klastra (do Galery przyrównano klaster z 6 tys. komputerów) są pomijalne (nie tyle pomijalne, co niskie). Więc firmy oddadzą sprzęt za free OPP (tak, organizacja pożytku publicznego), która zajmie się budową klastra i będzie odsprzedawać moc obliczeniową.

Prawie wszystko fajnie, ale IMO to się nie spina finansowo (czego dowodzi upadek cpushare.com, działającego przecież w bardziej elastycznych warunkach). Licząc skromne 50W (IMO mało, bo tyle to sam procesor może wziąć, a płyta, a sprawność zasilacza… no ale OK) na pojedynczy węzeł w klastrze, dla 6000 sztuk mamy pobór mocy rzędu 300 kW. Prowadzący wspominał coś o UPSach, redundancji zasilania (dwie linie dosyłowe) oraz generatorach Diesla, ale dla 50W już sam prąd to minimum 15 zł miesięcznie na węzeł (dla wyszukanych danych sprzed 3 lat, IMO obecnie bardziej na miejscu byłaby cena 0,6zł/kWh zamiast 0,42 zł/kWh; wg taryfy dla domu, tu pewnie wejdzie inna taryfa, jeśli ktoś jest na bieżąco, to proszę skorygować), czyli ok. 1 mln zł rocznie (a jeszcze ciepło trzeba odprowadzić). Może przy współpracy z elektrociepłownią i odzyskiwaniem energii do ogrzewania się to zepnie. Może.

Jeśli jednak pobór prądu ma być krytyczny, to Nautilus ze swoimi 18 TFlops i poborem 35 kW wypada 3 razy lepiej (ok. 100kW/50TFlops) niż składak z prezentacji, dając oszczędności ok. 0,7 mln zł rocznie w porównaniu ze składakiem… Podsumowując: jak dla mnie stawianie czegoś takiego w Polsce mija się z celem. No i sama teza, że „będą chętni do kupienia mocy obliczeniowej” też wydaje się naciągana – w końcu jest cała armia ludzi, którzy chętnie moc sprzedadzą (obecnie nawet oddają za darmo – patrz BOINC – jakieś 4312 TFlops).

Prezentacja druga

Prezentacja druga – Optymalizacja serwisów internetowych na przykładzie FilesTube – czyli to, na co przyszedłem. Prezentacja ciekawa (bardzo kojarzyła mi się z niegdysiejszymi prezentacjami Allegro i Naszej Klasy na którymś PLNOG i spokojnie mogłaby obok nich się pokazać) tylko… nie związana z tematem, moim zdaniem. Dowiedziałem się sporo o serwisie, o historii rozwoju, sporo o rozwiązaniach (architektura, soft, hardware, wykorzystane technologie) stosowanych w przeszłości, obecnie oraz planach, o modelu biznesowym. Padła teza, kiedy (nie) optymalizować, ale IMO zabrakło przekonujących przykładów, czemu właśnie wtedy (jeśli dobrze zrozumiałem to dewizą jest robimy jak bądź, jak się przestaje wyrabiać, to patrzymy czemu i optymalizujemy ten fragment). OK, to – jak widać – działa, ale czy faktycznie jest najlepszym podejściem? Czy próbowano innego? Powiedzenie nasza droga jest dobra będzie zawsze prawdziwe w przypadku firmy/produktu, który odniósł sukces, ale nie znaczy to, że nie ma innych (w tym: lepszych) dróg (zwłaszcza, że – jak słyszałem na prezentacji – aktualnie mają pewien problem z peakami ruchu).

Tu kolejna rzecz, sukces i chwalenie się nim. Bardzo mi tego zabrakło, a 2 razy więcej UU, niż ma Nasza Klasa (24 mln vs. 12 mln, dane z prezentacji) to IMO powód do reklamy i serwisu, i firmy, i miasta. O firmie i serwisie było do niedawna cicho, trochę za dużo na prezentacji dostrzegłem podejścia „robimy to tak i tak, no i jakoś się udało”. Jasne, szczęście też trzeba mieć, sam dobry produkt nie gwarantuje (IMO zwł. w necie) sukcesu, ale – skoro przy zerowych nakładach na marketing – serwis odniósł ogromny sukces (nazywajmy rzeczy po imieniu) to brak chwalenia się mnie po prostu dziwi. Może zaważyła tematyka (podobało mi się „piractwo, jakie piractwo?”), ale jak sami twórcy mówią, współpracują z organizacjami zajmującymi się ochroną praw autorskich…

Gdybym nie miał porównania z Allegro i Naszą Klasą, to cała prezentacja byłaby dla mnie skali „a tu mam taki serwis i on się zmieniał tak a tak” – nie czułem skali zjawiska, powiedzenie, że coś się wykonywało kilkanaście godzin, a po optymalizacji kilka minut też nie oddaje tego, czy było tak fatalnie na początku napisane, czy było napisane wg standardowego podejścia i po prostu skala jest taka, że przestaje się ono sprawdzać.

Prezentacja trzecia

Prezentacja trzecia – czyli dlaczego IPv6. Najbardziej tematycznie mi pasująca i… zdecydowanie najsłabsza. O ile mi udawało się nadążyć za tokiem myślenia i skrótami myślowymi prowadzącego, o tyle jestem przekonany, że niesieciowcy zrozumieli niewiele. Było o wszystkim – co to IPv6, czemu nie IPv4, historia i rozwiązania historyczne, wszystko mocno chaotyczne plus skróty myślowe ocierające się o błąd rzeczowy (np. „przydzielanie adresów IP za pomocą RADIUSa”). Brak czytelnego przesłania, skakanie po łebkach, mnóstwo pojawiających się i znikających nazw, brak jasnych przykładów – słabo. Plus za chęci, plus za humor, ale… to się nie broni. Nie dla laików, nie w tak krótkim czasie. Na PLNOGu wykłady były dłuższe, głębsze, dla sieciowców i tamto miało sens, więcej było też o możliwych problemach.

Po tym wykładzie przeciętny słuchacz IMO albo doczyta (oraz znajdzie aktualne rozwiązania wśród historycznych), spróbuje u siebie włączyć i się zniechęci problemami, albo zada sobie pytanie „co mi da działanie mojego serwisu/strony/system po IPv6” i… niestety nie będzie umiał na nie odpowiedzieć. IMO przy tak skróconym czasie warto było odpuścić historię (która dodatkowo miesza słuchaczom w głowach) i skupić się na rozwiązaniach bieżących.

Podsumowanie

Cieszę się, że byłem. Co prawda spotkałem się z opinią, że ten Netcamp był wyjątkowo ciekawy, ale mi się podobało (a porównania nie mam) i cieszę się, że taka impreza jest organizowana. Zapewne przyjdę kolejny raz, jeśli będę miał okazję i nie tylko po to, by się ze znajomymi spotkać (a taka była oryginalnie moja motywacja).

Odczyt S.M.A.R.T. via USB w Debian Lenny.

Dyski potrafią się sypnąć – pewnie każdemu zdarzyło się odzyskiwać dane z dysku, który „umarł”. Dyski mechaniczne posiadają jednak bardzo przyjemną cechę, która może zapobiec utracie danych, czyli tytułowy S.M.A.R.T.. Tylko, że… nie działa w przypadku dysków podłączonych po USB. Przynajmniej w Debianie Lenny. Przynajmniej domyślnie.

Wikipedii przepisywać nie ma sensu, więc krótko: pod każdym systemem dostępny jest pakiet narzędzi smartmontools. Do niedawna pakiet obsługiwał dyski IDE, SCSI oraz SATA. Natomiast bezradny był w przypadku dysków podłączanych przez USB (przynajmniej pod Linuksem), co znacznie ograniczało jego skuteczność.

Byłem przekonany, że to kwestia protokołu, ale przy okazji rozmowy okazało się, że da się, co więcej, niektórze narzędzia pod Windows umieją to zrobić. Linux jak zwykle w tyle? Okazuje się, że niekoniecznie. Co prawda wersja z Debiana Lenny nie potrafi odczytać stanu dysku podłączonego po USB, ale wersja z testinga – jak najbardziej.

Pakiet jest dostępny w backportach, a dla tych, którzy wolą zrobić sami informacja – samodzielnie backportuje się trywialnie. Wystarczy dodać do /etc/apt/sources.list repozytoria ze źródłami dla testing, pobrać źródła smartmontools oraz libcap-ng w wersji dla testing (wajig source smartmontools; wajig source libcap-ng), przebudować na Lennym (dpkg-buildpackage) najpierw libcap-ng, zainstalować otrzymane libcap-ng0_0.6.2-4_i386.deb oraz libcap-ng-dev_0.6.2-4_i386.deb, następnie zbudować smartmontools. Tak naprawdę do działania potrzebne są tylko libcap-ng0_0.6.2-4_i386.deb oraz smartmontools_5.39.1+svn3060-1_i386.deb). I to wszystko. Od tej pory działa smartctl -A /dev/sda, gdzie sda to dysk w kieszeni USB.

Przydatna sprawa, zwłaszcza, że w nowym routerku dysk w kieszeni jest dość krytyczny – wszak wszystkie katalogi, które muszą być dostępne do zapisu są właśnie na nim…

PS. Podziękowania dla peceta za informację o tej zmianie w smartmontools.

Nie o takie CUDA chodziło…

Kupując laptopa wziąłem pod uwagę kartę graficzną (nie, żeby to było jakieś istotne kryterium, bo 99,9% spędza w 2D). W szczególności cieszyło mnie wsparcie dla CUDA – nawet mam plan zabawy w programowanie tego w chwili wolnej (czyli pewnie nigdy, ale…). Co prawda jest to niski model karty (Nvidia 8200M), na dodatek wersja mobilna i ze współdzielonym RAM, ale liczyłem, że w porównaniu do CPU to będzie ogień, czyli rząd wielkości szybsze.

Niedawno miałem okazję przetestować wydajność komputera, a zwłaszcza CUDA. Przy pomocy BarsWF (Windows only) zrobiłem szybki test. Wynik nierewelacyjny – ok. 45 M/sek, przy czym po 15 M/sek robi każdy rdzeń procesora i tylko 15 M/sek grafika. Nie wiem, czemu tak słabo (z tego, co rozmawiałem, sterownik nie powinien mieć wiele do powiedzenia – bardziej CUDA działa albo nie działa). W tej chwili jest standardowy z Windows Vista (system widzi ją jako 9200 IIRC).

Jakieś sugestie, jak zwiększyć wydajność CUDA na Nvidia 8200M? Wydajność na poziomie kolejnego rdzenia procesora to IMHO porażka. Sugerowane narzędzia do diagnostyki pod Windows (taktowanie karty, temperatura karty itp.)? Ograniczeń i problemów z przegrzewaniem się laptopowych Nvidii serii 8xxx jestem świadom, bardziej chciałem potestować, ile da się wycisnąć maksymalnie z tego sprzętu, niż liczyć coś produkcyjnie.

PS. Szczególnie wdzięczny byłbym, gdyby ktoś z podobną grafiką (Nvidia 8200M) pochwalił się swoimi wynikami z BarsWF.

Security – ostatnie różności (zabezpieczenia moBILETu ponownie).

Wczorajszy dzień jakoś tak obfitował w wydarzenia związane z bezpieczeństwem, że postanowiłem to podsumować.

Po pierwsze, po dyskusji z netu na ten temat, postanowiłem się przyjrzeć moBILTowi. W sumie po raz kolejny bo i na zabezpieczenia patrzyłem (i to dwa razy). Przy dyskusji zeszło oczywiście na temat jak oni to sprawdzają (jak pisałem, sprawdzają źle) oraz jak mogą sprawdzać. Oczywiście najdoskonalsza wersja, to sprawdzenie online (odpytanie bazy o fakt skasowania danego biletu). Ponieważ twierdziłem, że jakby napisanie fake’owej aplikacji było proste (grafiki są – jak pisałem – dostępne, cudów tam nie ma, zwykła Java ME i trzy semi statyczne ekrany), to na pewno studenci (taki gatunek człowieka, co to nigdy kasy nie ma, dostęp do wiedzy i czas ma (chyba, że akurat pije, co mimo braku kasy zdarza się często, albo sesja), więc do skutecznego kombinowania pierwszy) by to zrobili. I że pewnie jest algorytm, który na podstawie cyfr/kodu z biletu pozwala zweryfikować prawdziwość biletu offline.

Nie ukrywam, że pozazdrościłem Niebezpiecznikowi opisu hackowania karty IKEI w celu dostania kawy, więc był czas, kawa, motywacja…

Bliższe przyjrzenie się ujawniło, że to, co brałem za QR code, to raczej Aztec code. Na dodatek odwrócone kolory ma (nie doczytałem, czy oryginalny Aztec na to pozwala, na wiki wszystkie są odwrotne). Ale Neoreader czyta to. Po przeczytaniu okazuje się, że twórcy nie ułatwili kontrolerom pracy – nie ma żadnego unikatowego ID zaszytego w tym kodzie. Jest tylko dokładny timestamp kasowania biletu. Opieram się wyłącznie na screenach dołączonych do instrukcji na stronie (dead link) – wyglądają na prawdziwe.

Niestety, inaczej niż w przypadku Niebezpiecznika, ludzie zawiedli. Apel na blipie pozostał może nie tyle bez odpowiedzi (odezwały się 2 osoby, z czego tylko jedna mogłaby pomóc), co bez danych. Pozostali znajomi nie odezwali się jak na razie z danymi, więc zostałem tylko ze swoimi danymi. Szybka analiza wykazuje, że są tak naprawdę 3 dane brane pod uwagę. Dokładny czas kasowania, numer ze strony pierwszej, bieżący numer ze strony drugiej i… tyle. Przy czym numer ze strony pierwszej jest stały (być może dla danego użytkownika, typu usługi, regionu) w trakcie jednego dnia. Natomiast bieżacy numer to po prostu inkrementowane ID w bazie (też nie wiem, czy dla danego typu usługi i regionu, czy transakcji globalnie, ale wiem, ile przyrasta dobowo).

Szybkie odświeżenie wiadomości z pracy magisterskiej i naklepanie prostego AG (algorytmu genetycznego) w Perlu nie przyniosło rezultatu w postaci znalezienia korelacji między datą danego dnia, a numerem ze strony pierwszej, choć na oko wygląda, że taka może istnieć (Perl i algorytm wolne i nie do końca przemyślane). Tak naprawdę czekam na więcej danych, w szczególności chcę porównać, czy dany numer jest stały dla wszystkich użytkowników (i usługi) w danym dniu. Jeśli jest, to ewidentny błąd twórców moBILETu – nawet jeśli nie ma algorytmu, to wystarczy, że jeden student skasuje bilet w danym dniu i przekaże numer innym. I nie da się zweryfikować offline, na podstawie sumy kontrolnej czy czegoś takiego, czy to autentyczny bilet…

Po drugie, za sprawą wpisu u Marcina Kasperskiego dowiedziałem się, że wbrew temu, co mówili sceptycy, słynną Nokię 1100 da się wykorzystać do przechwytywania SMSów z kodami jednorazowymi do transakcji. Czarny scenariusz się sprawdza – kody SMS nie są bezpieczne, istnieje metoda na oszukanie czytnika kart chipowych… Nadchodzą niedobre dni dla banków internetowych?

Po trzecie, atak phishingowy na Lucas Bank (dead link). Tu lekka lipa ze strony banku, bo korzystajac z formularza kontaktowego na stronie nie możemy wprost zgłosić takiego zdarzenia. Co więcej, wymagane jest podanie adresu email. A korzystając z tego formularza wyrażamy zgodę na przysyłanie spamu przez bank. Słowo kretyn w stosunku do osoby, która to wymyśliła nie oddaje w pełni tego, co chcę wyrazić…

UPDATE: Szybkie sprawdzenie z mobiletem kumpla pokazuje, że numer ze strony pierwszej jest stały w obrębie danego dnia dla wszystkich użytkowników (danej usługi, w danym regionie, kupujących dany typ biletu).

Opera mini 5 beta 2.

Jakiś czas temu pisałem o becie Opery mini 5 i nie byłem zachwycony. Niedawno ukazała się kolejna beta. Zachęcony przez groszka postanowiłem dać jej szansę.

Oficjalnie mój telefon (Nokia 3110c) nadal nie jest wspierany, ale daje się zainstalować betę przez wejście na m.opera.com/next – warte odnotowania, bo przy innych sposobach strona usilnie stara się wiedzieć lepiej, co chcę dostać i bety w wersji drugiej pobrać nie pozwala.

Nadal widać, że program robiony jest z myślą o większych ekranach, ale są też pozytywy. Po pierwsze, działa stabilniej od poprzedniej wersji – nie wysypała się ani razu, chociaż faktem jest, że nie używałem zakładek. Po drugie, mój ukochany mobile view jednak istnieje (chyba, że dodali teraz). Co prawda, jak większość opcji, ukryty jest w jakiś dziwny sposób (ogólnie w porównaniu z czwórką spaprane menu jest; mogłem nie znaleźć poprzenio), zmienione jest też przewijanie klawiszami (to, co kiedyś było jedną linią, teraz oznacza page down), ale idzie się przyzwyczaić.

Nie mam wrażenia, że jest szybciej, niż w wersji 4, ale szybkość jest OK. W mobile view strony wyświetla poprawnie, nie zauważyłem problemów ze stabilnością. Krótko mówiąc, działa na tyle dobrze, że jest obecnie moją podstawową przeglądarką. Choć czwórki na wszelki wypadek nie kasuję.

IKEA, the bookkiller.

Jakiś czas temu u MRW poruszony został temat niszczenia książek. Z mojej strony padła teza, że IKEA też „zabija” książki, bo ładuje je jako zapychacz na półki w sklepach (znaczy wystrój). Jako, że IKEA postrzegana jest jako twór piękny, czysty i szlachetny, pojawiły się głosy (janekr 2009/12/23 08:35:04, gfedorynski, 2009/12/23 13:47:54; szkoda, że Blox nie ma linków bezpośrednio do komentarzy), że to nie książki, tylko atrapy.

Przyznam, że trochę mnie to zaskoczyło, bo chociaż wyglądały mi na normalne, szwedzkie książki, to nigdy nie otworzyłem żadnej i nie sprawdziłem, choć przyznam, że miałem plan poproszenia o taką książkę/kupienia jej w kasie, w czasie, gdy uczyłem się szwedzkiego (byłoby to niezłe dojście do używanych szwedzkich książek w Polsce). Ale nie poprosiłem, więcej, nawet nie wyjąłem książki z regału. Postanowiłem sobie, że sprawdzę, jak jest naprawdę przy okazji najbliższej wizyty w IKEI.

Okazja nadarzyła się niedawno. Pierwszy rzut oka – normalne książki, widać, że nie same grzbiety, widać, że mają strony (akurat niektóre leżały na płask, nie pionowo na półce)… Na atrapę nie wyglądają – różny stopień zużycia (bardziej na końcówki serii leżące w różnych miejscach). Ale sprawdzić trzeba dokładnie, bo może takie lepsze atrapy… Książki. Normalne, szwedzkie książki. Setki. Dla niedowiarków zdjęcie na końcu wpisu (sorry za jakość, Nokia 3110c ma beznadziejny aparat).

Jeśli chodzi o tezę, że „może ktoś je przeczyta” – sorry, no bonus. Sklepy IKEI są rozrzucone po całym świecie, nie ma co ukrywać, szwedzki jest bardzo mało popularnym językiem (nawet wliczając podobieństwo norweskiego i duńskiego) poza Skandynawią, więc nie ma co liczyć, że ktoś z kupujących będzie testował fotel oddając się lekturze (co innego, gdyby książki były w lokalnym języku; swoją drogą zachowania ludzi w tym sklepie nie przestają mnie zaskakiwać – niektórzy przychodzą tam „mieszkać” – siedzą w kuchni, leżą na łóżku, siedzą na sofach – jak w domu).

Podsumowując: IKEA „zabija” książki (prawdziwe książki, żadne atrapy) i redukuje je do roli wystroju. A przynajmniej trafiają na zesłanie, z którego szansa powrotu do „życia” jest minimalna.

Książka w IKEA

 

Patos kapu kap.

Niedawno miała miejsca akcja Stop-Cenzurze (dead link). O co chodziło, można doczytać na stronie. Akcja miała wiele pochodnych, przykładowo do pobrania był bardzo ciekawy skypt (ciekawszy niż czarny banner, choć IMO trochę mniej mówiący – banner wyłączający u góry nieco za mały), zasłaniający niektóre wyrazy czarnymi prostokątami (wyłączane po kliknięciu banneru).

Ponieważ akcję popieram, to i tu znalazł się banner (co prawda pojawił się później, bo wtedy dowiedziałem się o akcji, ale był). Można nawet mówić o jakimś sukcesie – chyba pierwszy raz doszło do zauważenia zwykłych ludzi i ich zastrzeżeń do prac rządu i procesu stanowienia prawa, co więcej, była nawet jakaś reakcja i zainteresowanie ze strony rządu. Pożyjemy, zobaczymy.

Natomiast nie o tym chciałem pisać, a o przemówieniu na zakończenie akcji. Jak pisałem, banner zamieściłem, ale nawet nie zgłaszałem strony, bo po co? Kto wejdzie, ten zobaczy banner i tyle. Natomiast chcę się odnieść – po raz kolejny – do fragmentu wspomnianego przemówienia:

Niektórzy z Was mogli się przecież przy tym narazić na mniejsze wpływy u reklamodawców i oburzenie społeczności dla której jesteście. To właśnie można nazwać poświęceniem dla sprawy.

Już samo słowo przemówienie w tytule sugeruje, że od patosu będzie kapać, ale tego się nie spodziewałem. Normalnie zamieszczający od ust sobie odebrali, głodowali miesiąc, wygnano ich z miast i pokasowano im konta na serwisach. Społeczność była oburzona, jad pod ich adresem wprost lał się strumieniami w wielu wpisach poświęconych tej sprawie. Oraz tradycyjnych mediach (szczególnie niektóre dzienniki). Poświęcenie, jakby ręce dali sobie uciąć w ramach protestu. No i maile, nie zapominajmy gorzkich mailach z wyrzutami. Treść takiego maila można zobaczyć poniżej. Bzzzt, wróć. Można by było zobaczyć, jakbym jakiegoś dostał.

Get real, całe przyłączenie się do akcji to było tylko wklejenie kawałka kodu w szablon, żeby się odwiedzającym banner wyświetlił. Po prostu i tylko tyle. Jak napisałem w komentarzu, dla mnie taki tekst na koniec akcji jest żałosny. W stylu wy, wielcy bohaterowie, w ramach głodówki nie zjedliście dziś ani jednego ciastka, dziękujemy za poświęcenie! Choć stańcie do apelu byłoby mocniejsze…

I zastanamiam się, gdzie byli i co robili wszyscy ci obrońcy wypowiedzi, kiedy MG kasowano konto (podążanie za odnośnikami wskazane; miałem nie wracać do tego, ale tak się kojarzy, że nie mogę się powstrzymać).

 

Sortowanie śmieci w Polsce – czemu jest źle?

Kolorowe pojemniki na odpady pojawiły się jakiś czas temu. Jednak sortowanie śmieci wcale nie jest popularne. Ponieważ sortuję śmieci i uważam, że produkujemy (my, jako ludzie) ich na tyle dużo, że warto sensownie się ich pozbywać, garść przemyśleń dotyczących sortowania śmieci w Polsce.

Czemu warto sortować? Powodów jest kilka. Po pierwsze, posortowane i odpowiednio potraktowane śmieci nie zapełniają wysypiska i nie trują bezsensownie środowiska, tylko są traktowane w odpowiedni sposób – albo niszczone w sposób bezpieczny dla środowiska, albo nawet mogą być powtórnie wykorzystane. Powód drugi, mniej oczywisty, to fakt, że śmieci wyrzucane do zbiorczych punktów to mniej śmietników zwykłych, za które płacimy od sztuki (od pojemnika). Czyli sortując możemy – przynajmniej teoretycznie – obniżyć koszt wywozu śmieci. Szczególnie, jeśli mamy więcej niż jeden kubeł dla danej zbiorowości.

Powodów, dla których ludzie nie sortują śmieci jest wiele. Przede wszystkim niska świadomość społeczna i brak nawyku. Przykładowo u mnie na klatce wisi informacja w stylu kartony podrzyj przed wrzuceniem do kubła. No cudownie. Tylko czemu w ogóle wyrzucać je do kubła, żeby gniły na wysypisku, a nie wynieść , jeśli nie do skupu, bo to dla wielu – w tym dla mnie – gra, nie warta świeczki, to chociaż do stosownego „segregatora”?

Do tego ludzie myślą, że i tak wszystko trafia na jedno wysypisko. Ufam, że nie, bo na choinki w tym roku był specjalny samochód w Poznaniu. Świetna inicjatywa, tylko jak mało popularne jest wyrzucanie w specjalizowanym miejscu (które jeszcze podjechało na okoliczny plac), dotarło do mnie, gdy dostałem jakieś gadżety za oddanie choinki (kalendarz i choinkę zapachową).

Na tym nie koniec – nie wiadomo, gdzie co wrzucać. Instrukcje na śmietnikach są niejednolite, niejasne, w sieci też nie jest łatwo o jednoznaczne informacje. Przykładowo, nieoczywiste jest, gdzie wyrzucać kartony po napojach i mleku. Puszki aluminiowe? Nawet nie myślę – stawiam obok śmietnika (akurat „segregatora”, ale to bez znaczenia), na szczęście są „złomiarze”, którzy chętnie je wezmą i zaniosą za parę groszy do punktu skupu.

Kolejna sprawa – kubły są daleko, więc mało kto korzysta. Poważnie, to, że do „segregatorów” jest 5 minut na piechotę, to nie znaczy, że są blisko. Gdyby stały przy jakichś ważniejszych węzłach komunikacyjnych, to moooże, ale to pisze sprawny człowiek. Staruszka czy matka z małym dzieckiem nie pójdzie na 5 minutowy spacer tylko po to, żeby plastiki wyrzucić do „segregatora”, skoro może do zwykłych śmieci wyrzucić.

Nie ma dodatkowych kubłów „segregatorów” przy każdym większym śmietniku, a – moim zdaniem – powinny być, jeśli ludzie mają z tego korzystać. Stoją 4 kubły na zwykłe śmieci – powinny być po jednym typie każdego „segregatora” (papier, plastik, szkło białe, szkło kolorowe). Spacery do „segregatorów”, nawet te kilkuminutowe, to domena hobbystów i ideologów.

Na deser dochodzą nierealne wymagania dotyczące mycia, odkręcania zakrętek, elementów metalowych itp. C’mon, jak oni to sobie wyobrażają? Jak mam uwalony słoik po ketchupie czy butelkę po soku, to albo wywalę ją do śmieci ogólnych, albo wyniosę do dedykowanego „segregatora”, ale na pewno nie będę jej mył (praca, koszt) czy odkręcał, jak śmieci wyrzucam w drodze do pracy (czas, poza tym pewnie się upapram). Olewam te zalecenia, w końcu te śmieci powinny i tak trafić na sortownię. Plastików jest wiele rodzajów i nie ma co się łudzić, że ludzie będą się doktoryzować z tego, jak dokładnie segregować. Zamiast tego powinny być ogólne wytyczne, typu tu metale, tu szkło (ew. białe i reszta), tu plastik, tu papier, a reszta powinna być robiona w sortowniach.

Szczerze mówiąc, wolę model szwedzki. Kaucjowane puszki i butelki PET (zwykłe chyba też, ale nie pamiętam) znacznie redukują problem. Plus przy śmietnikach były dedykowane pojemniki na resztę plastików i papier (IIRC). I tyle. Pewnie i tak wychodzili na tym sto razy lepiej, niż my, bo ludzie jednak masowo oddawali i puszki, i butelki plastikowe. Z tego co widziałem, zwykłe śmieci też były sortowane. W końcu jak kubły stoją obok siebie, to żaden problem podzielić w domu na papier, plastik, reszta.

Fujitsu Siemens Esprimo V6515

Staremu laptopowi (Asus A6U) się umarło, więc wymieniłem mojej miłej notebooka. Stanęło na tanim, tytułowym FS Esprimo V6515. Poniżej szybkie wrażenia z krótkiego użytkowania sprzętu i instalacji Debiana w wersji Lenny.

Fujitsu Siemens Esprimo V6515

Źródło: http://gdgt.com/fujitsu-siemens/esprimo/mobile/v6515/

Może Asusowi nie zmarło się tak całkiem, ale praca była niemożliwa – twierdził, że się przegrzewa i się wyłączał. Losowo. Szybka poprawa chłodzenia nie pomogła (a raczej pomogła na chwilę), poza tym sprzęt średnio nowy i średnio rozwijalny (Sempron 3000+, 512 MB RAM, dysk IDE), więc stanęło na tym, że szybciej i pewniej zmienić, niż naprawiać (czym i tak pewnie się zajmę), bo może płyta walnięta, czujnik jakiś czy procesor, a nie po prostu chłodzenie. Pojawił się więc nowy, względnie tani lapek.

Tytułowy FS Esprimo V6515, to: matowa matryca (to IMO plus) 15,4″, 2 GB RAM (1 GB + 1 GB dołożony), Nvidia 8200M, procesor Intel Pentium Dual Core T3400 (2,16 GHz), dysk 160 GB (5400 rpm), nagrywarka DVD. W porównaniu z poprzednikiem, na oko – demon szybkości. Z Windows Vista Basic w markecie już za 1350 zł brutto, czyli niedrogo, nawet porównując koszt modernizacji/naprawy poprzednika.

Pierwsze wrażenie – ogór. Nie ma nic, raptem 3 złącza USB, ethernet, wyjśnie na zewn. monitor, jakieś słuchawki i… tyle. Żadnej kamery, modemu, dodatkowych złącz, slotu na karty. Nic. Do tego tandetnie i delikatnie wyglądający plastik. Całość duża – gruby (wysoki), szeroki i głęboki. Wagę przemilczę. No cóż, low end… Ale że ma to być „przenośna stacjonarka”, a nie laptop, to w sumie jakość nie jest aż tak ważna, podobnie jak czas pracy na baterii.

Zadecydowała cena (chyba jedne z najtańszych laptopów w ogóle) i grafika z CUDA, którą mam zamiar kiedyś się pobawić bardziej. Krótko – do jakości można przywyknąć, a szybkość faktycznie jest OK (pamięć RAM współdzielona z grafiką). Sprzęt nie kupowany z myślą o Linuksie, bo nie będzie to podstawowy system na nim, ale na oko powinno działać, zresztą „jakoś to będzie”.

Na pierwszy ogień – zaraz po instalacji Windowsa – poszedł memtest – błędów nie było. Spróbowałem uruchomić Knoppiksa z USB i… pierwszy zawód. Nie zadziałał. Standardowe wyłączenie acpi itp. również nie pomogły.

Podejście drugie to LiveUSB Debiana Lenny w wersji 64 bit (DIY). Działa. I jest szybki. Bardzo szybki. Nie wiem, czy to kwestia 64 bit, czy samego sprzętu, czy uruchamiana z pendrive’a, ale KDE uruchamia się błyskawicznie. Szybka instalacja po kabelku ethernetowym (karta bezprzewodowa nie działa z liveCD) i… Lenny średnio się nadaje na desktop. Przynajmniej dla tej maszyny.

Przy standardowej instalacji (znaczy się Lenny postawiony debootstrapem, nie z użyciem instalatora) nie działały: wireless, klawisze specjalne (głośniej, ciszej, jaśniej, ciemniej) oraz… dźwięk. No dobrze, być może dźwięk działał, bo coś tam cichutko szumiało, tylko nie zauważyłem wyciszonego suwaczka od „speakers”. Działała akceleracja 3D (sterownik binarny Nvidii z dystrybucyjnego repozytorium) i karta ehernetowa, przy czym grafika zmieniała jasność na maksimum (a klawisze nie działały).

Jeśli chodzi o wireless, to lspci wskazało, że jest to Atheros AR242x 802.11abg, czyli całkiem zacna karta (nie spodziewałem się wsparcia dla 802.11a w takim low endzie). Szybkie sprawdzenie i… wiki Debiana stwierdza, że na kernelu z Lenny’ego ta karta nie zadziała (choć ogólnie powinna działać i to na sterowniku z jądra). No dobrze, i tak nie lubię dystrybucyjnych kerneli. Szybkie ściągnięcie waniliowego 2.6.32.6, ponieważ nie mam czasu, to nie bawię się w tuning, tylko biorę konfig z Lenny’ego, make oldconfig, make-kpkg –initrd kernel_image, reboot i… WiFi działa, ale – zgodnie z przewidywaniami – grafika nie bardzo.

Module assistant nie zrobi pakietu na podstawie sterownika z Lenny’ego, bo kernel za nowy. Nic to, zaczyna się backportowanie. Instalacja źródeł nvidia-glx i nvidia-kernel-source z repozytorium unstable (wersja 190.53-1), kompilacja, instalacja i… działa (przy okazji wrzuciłem mój ulubiony wicd dla WiFi, także backportowany). Dla odmiany, zamiast jasności na maksimum, jest na minimum. Wspominałem, że klawisze specjalne (nadal) nie działają? Za to działa:

echo "5" > /sys/class/backlight/acpi_video0/brightness

Ale da się pracować. 😉 Do tego szybkie zrobienie dynamicznej zmiany taktowania procesora (bez problemu).

Z podstawowych rzeczy został dźwięk. Stwierdziłem, że albo opcje do modułu potrzebne, albo nowsza alsa. Albo jedno i drugie. Alsa backportuje się bez problemu, trochę nt. opcji modułu (i – nie ukrywajmy – wielu innych rzeczy) znalazłem na opisie instalacji Lenny’ego dla V6505 (nieco inny sprzęt, ale wiele zbieżności). Po instalacji alsy odkrywam wyciszony suwak „speakers”. Nie wiem, czy go wcześniej nie zauważyłem, czy go nie było. W każdym razie po zwiększeniu głośności dźwięk działa.

Ostatecznie stanęło na tym, że klawisze specjalne nie działają, reszta działa (ww. strona sugeruje, że Ubuntu 9.10 obsługuje wszystko od kopa, więc jak komuś zależy na bezproblemowej instalacji Linuksa, to raczej tę dystrybucję polecam, choć jej nie testowałem).

Co do samego sprzętu, to uwagę zwraca także duży pobór prądu – powertop pokazuje, że zużywa dużo więcej prądu, niż HP Compaq 8430 sprzed 2,5 roku. Mówiąc dużo więcej, mam na myśli przynajmniej jakieś 30% (IIRC). Oba na podobnych ustawieniach – bez obciążenia (minimalne taktowanie), mało uruchomionych programów, włączone wifi, ekran o normalnej jasności. Natomiast jeśli chodzi o szybkość, to nie chodziło o bootowanie z pendrive’a – nadal jest bardzo szybki. Ikonki w splashu KDE robią pyk-pyk-pyk i system gotowy do działania. Bez żadnego tuningu.

Podsumowując – całkiem fajny sprzęt (IMO lepszy wybór, niż kupno typowego desktopa, jeśli ktoś nie ma jakichś wielkich wymagań dla np. grafiki), nawet obsługiwany przez Linuksa, choć Debian Lenny nie jest dla niego najszczęśliwszym pomysłem – wymaga rzeźby (a mimo to klawisze specjalne nadal nie działają). Przy czym należy mieć na względzie, że to nie mój sprzęt i raczej nie miałem czasu na wgryzanie się i zabawę.

Na potrzeby serwisu Linux on Laptops popełniłem opis instalacji Debiana Lenny na Fujitsu Siemens Esprimo V6515 (ang.) – może się komuś przyda. Więcej szczegółów dotyczących sprzętu, konfiguracji i instalacji pakietów – tamże. Ew. aktualizacje opisów uruchamiania także będą się znajdowały raczej tam, niż w tym miejscu.