Twitter/Identi.ca DNS hack, czyli jak obejść zabezpieczenie Wi-Fi.

Przyjeżdżasz na konferencję, wpadasz do pokoju hotelowego, znajomi już powinni być, ale czy faktycznie dojechali? Jeśli poruszasz się bez mobilnego internetu, masz mało wygodny Internet w telefonie, uruchomionego laptopa i nie spięte te dwa urządzenia z jakiegoś powodu, czy recepcja hotelowa jest daleko lub przeżywa oblężenie, to można to sprawdzić wykorzystując fakt, że zwykle hotelowe systemy dostępu przepuszczają zapytania (i odpowiedzi) DNS. Teraz jest to jeszcze prostsze, bo nie trzeba samemu ustawiać tunelu DNS. O ile tylko znajomi korzystają z Twittera lub Identi.ca…

Prostą w użyciu, nie wymagającą logowania i publicznie dostępną bramkę Twitter/Identi.ca -> DNS zapewnia serwis Any.IO. Można pobrać ostatni status użytkownika, ostatnich 10 statusów, informacje o użytkowniku i… to w zasadzie tyle (przykłady na stronie). Wszystko w trybie tylko odczyt – nie ustawimy swojego statusu (dziwnym nie jest, wymagałoby podania hasła), ale czasem może być przydatne.

Oczywiście to tylko namiastka tunelu i ciekawostka (ale bardzo wygodny gotowiec), jeśli ktoś szuka więcej informacji to więcej o tunelowaniu ruchu w zapytaniach DNS jest tutaj (ang.; nie bawiłem się, ale wygląda sensownie i sporo przydatnych linków).

PS. Wszyscy piszą disclaimery nt. legalności tego typu rozwiązań. IANAL, ale IMVHO jeśli jesteśmy klientem hotelu, a zapytania DNS są przepuszczane, to nie jest to nieuprawniony dostęp. A już na pewno nie pojedyncze zapytanie w formie prezentowanej przez Any.IO.

PLNOG 6.

Tradycyjnie spóźnione wrażenia, tym razem z szóstej edycji PLNOG. Formuła podobna jak w poprzednim wpisie, jedyne co warto podkreślić, to że z premedytacją starałem się chodzić na inne wykłady, niż współpracownicy i na dodatek niekoniecznie na sieć – resztę nadrobię z materiałów na stronie (oby były szybko), co już ambitnie postanowiłem (tu przydałby się link do zaległego opisu słuchania wykładów z TED, jak już go zrobię). oczywiście w taki sposób.

The State of the Global IPv6 Tables prowadzony przez Martina J. Levy’ego z Hurricane Electric. Wykład z efektem, jeśli o mnie chodzi. Zmotywował mnie do robienia certyfikatu (na prywatnych zasobach, na firmowych byłoby za łatwo, ale zobaczymy…), którego aktualny postęp powinien być widoczny gdzieś po po prawej. Oraz był przedstawiony empiryczny dowód na to, że geeki to takie leniwe bydlęta, że nic im się nie chce, ale za koszulkę zrobią prawie wszystko. Poza tym, liczba tuneli ciągle rośnie, co nie jest dobre, bo oznacza, że nadal mało natywnego IPv6 na świecie.

GPON/G-EPON – techniczne aspekty związane z usługami Triple-Play, IPoDWDM – nowe alternatywy dla sieci OTN i SDH DWDM Radosław Ziemba, Michał Dłubek Elmat. Bardzo ciekawy wykład nt. *PON. W przeciwieństwie do firm sprzedających tego typu rozwiązania nie o tym, jaki to PON jest fajny, cudowny i magiczny, tylko (także) o wadach, problemach i ograniczeniach, czyli że diabeł tkwi w szczegółach. TBH uważam, że otwarte mówienie o problemach lepiej robi produktowi/technologii, niż zamiatanie pod dywan, ale ja się na marketingu nie znam.

Enabling Cloud Providers with Converged Infrastructure Henk Bruijns HP Wyniosłem wrażenie, że chmura to tak naprawdę tylko oprogramowanie do jej tworzenia, a przyznam, że liczyłem głównie na jakieś specyficzne sieciowe technikalia. A tymczasem to co pokazano było to proste i standardowe, i tylko zautomatyzowane systemem zarządzania. Warto podkreślić, że prezentowane rozwiązanie było przedstawione jako całkowicie międzyplatformowe, jeśli chodzi o vendorów sprzętu sieciowego.

Peering, tranzyt, kolokacja… Neutralność, globalność, dostępność… Nowa matematyka IT Sylwester Biernacki PLIX Trochę o istniejących usługach i przede wszystkim o nowej kolokacji PLIX. Bez rewolucji, ale nowa kolokacja może być ciekawym uzupełnieniem obecnej oferty. Za to fakultatywna wycieczka po istniejących kolokacjach – rewelacja. Można było obejrzeć wszystkie bebechy PLIX, od zasilania, przez szafy sieciowe i NOC, po pomieszczenia z serwerami (o których normalnie nie słychać, a przynajmniej mi się PLIX zawsze z czymś mniejszym kojarzył). Ciekawe i adaptacyjnie (bo budynkowi LIM daleko do typowego DC), i w kwestii rozwoju, i „jak to działa”.

Onet VOD Tomasz Charewicz, Marcin Kaptur Onet.pl Fajny wykład o tym, jak zbudowany jest VOD Onetu, co robią maszyny (i kiedy). Plus zapowiedź nowych platform z jasnym – po dopytaniu przesłaniem – zapomnijcie o VOD na Linuksie, ze względu na brak DRM. I nie jest to wymysł Onetu (dość oczywiste), tylko wymóg koncernów. Czyli nie zmienia się nic i na normalne, nawet niepłatne (tylko reklamy) materiały do obejrzenia pod Linuksem nie ma co liczyć…

Zarządzanie obciążeniem serwerów w klastrze webowym Paweł Sadkowski nk.pl Wykład zapamiętany in minus. Ja rozumiem, że nieładnie jest się spóźniać na wykład, ale jeśli coś ma trwać 45 minut, to nie powinno kończyć się po… siedmiu. Chyba, że coś przegapiłem – będę musiał obadać wersję online i ew. odszczekać.

Data Center – droga od pomysłu do efektów Zbigniew Szkaradnik 3Services Factory Zawsze zastanawiałem się, jak się buduje datacenter. No i się dowiedziałem, że to nie takie proste, poczynając od umiejscowienia, przez zasilanie, kupno odpowiedniego budynku (działki), zaplanowanie powstawania, rodzaj DC, klientów i zmienne warunki rynkowe. Z ciekawostek – są dokumenty opisujące standardy w tym zakresie. Wykład ciekawy, sporo konkretów (jak dla sieciowca, ludzie zajmujący się na codzień budową DC pewnie mogli mieć inne wrażenia). Jedyne do czego można się przyczepić, to fakt, że za wcześnie by mówić o efektach – DC rusza na dniach, ale jeszcze nie działa. Mam nadzieję, że za jakiś czas pojawi się wykład konfrontująca założenia działania z rzeczywistością.

Obsługa abonentów poprzez sieć L2 i L3, czyli ciąg dalszy centralnego BRASa w sieci Marcin Kuczera Leon. Nie mogłem odpuścić tego wykładu, bo tematyka z wielu względów bliska. Konkretnie, ciekawie i na żywo (tak, logowanie na zdalną maszynę i pokazanie że coś działa, zmiana konfiguracji, nie działa). Konkrety łącznie z przykładami konfiguracji. Jakby był przycisk FB przy wykładzie, to bym kliknął Lubię to.

Tradycyjnie wpadło parę pomysłów (już się testują, mam nadzieję – ja się na razie urlopuję) i był kop motywacyjny, jest jeden szatański plan, ale trochę za wcześnie, by o nim konkretnie pisać…

Pomysł MI na minimalną prędkość Internetu.

Pomysł

Niedawno Ministerstwo Infrastruktury wpadło na pomysł kolejnej regulacji. W skrócie, tym razem sprowadza się to do: jeśli komuś Internet działa, ale z prędkością niższą niż 90% maksymalnej określonej w ofercie, przez 12h lub dłużej w skali miesiąca, to ten ktoś nie płaci rachunku za Internet za dany miesiąc. Interesujące, prawda? Pomysł jest tak skandalicznie zły, że nie mogę go zmilczeć. No to po kolei (bardziej ze strony ISP, bo jest mi jednak bliższa, choć i klientem jestem):

Problem istnieje

Nie ma co ukrywać, że biznes w dostarczaniu Internetu klientom indywidualnym opiera się na kupnie większej ilości pasma i skorzystania z tego, że nie wszyscy korzystają jednocześnie (czyli tzw. overbooking lub overselling). Jednak żaden normalny ISP nie oferuje z premedytacją prędkości takich, których w normalnych warunkach nie jest w stanie zapewnić. Chyba, że na danym obszarze nie ma konkurencji… Co innego operatorzy komórkowi (kto osiąga reklamowane 7,2Mbps)? U nich nawet rozmowy telefoniczne są overbookowane. Wystarczy spróbować zadzwonić w Sylwestra, by się o tym przekonać…

Jasne, trzeba klientów chronić przed nieuczciwymi praktykami typu: na łączu 10 Mbps jest 30 klientów po 10 Mbps. Czy też nawet 3 klientów z abonamentem 10 Mbps. Ale 30 z abonamentem 1 Mbps? Co miałoby źle działać (i jak często)? Ale czy na pewno w ten sposób? Zgadzam się, że klient powinien być zwolniony z „lojalki”, powinien posiadać możliwość rozwiązania umowy lub otrzymać rekompensatę, jeśli problem z prędkością występuje, ale nie na takich zasadach, jak proponowane.

Źródła niskiej prędkości

Dostęp do Internetu składa się z następujących składników:

  • Infrastruktura po stronie klienta. Komputer, router, modem, połączenia między sprzętami (potencjalnie źle skonfigurowane wifi, poniszczone kable).
  • Infrastruktura po stronie dostawcy: kable, światłowody, radia, switche, routery, modemy (potencjalnie poniszczone kable, zakłócone radia, błędy konfiguracji).
  • Infrastruktura po stronie pośredników – zasadniczo podobna jak u dostawcy – w końcu dostawca jest dla nich klientem. Osobno, bo ISP nie ma wpływu na jej funkcjonowanie (poza wyborem operator X lub Y).
  • Infrastruktura po stronie dostawcy treści – routery, switche, serwery, aplikacje. Dodatkowo możliwość nakładania limitów różnej maści (choćby ograniczanie prędkości per połączenie czy per IP; wiele różnych błędów możliwych).

Problem jest z jednoznacznym pomiarem (samym pomiarem! bo co to tak naprawdę jest prędkość Internetu?), problem jest też z jednoznacznym określeniem źródła problemu (często jest to właśnie sprzęt w domu klienta). Wszystkie elementy każdej powyższej infrastruktury (klient, ISP, operatorzy pośredni, dostawca contentu) mają realny i znaczący wpływ na ostateczny wynik. Dlaczego każe się ISP dostarczającemu usługę klientowi indywidualnemu odpowiadać za infrastrukturę w domu klienta, u dostawców pośredniczących i u dostawcy treści? I czemu karze się go za błędy nie leżące po jego stronie? Bo do tego się ten projekt sprowadza.

Wartości

Sama wartość 90% prędkości jest wartością wysoką. Skrajnie wysoką. Rozumiałbym 1% czy też nawet w porywach 10%, ale nie 90%… Podobnie 12h – jest to wyśrubowane wymaganie. 1,6% czasu. Nawet przy łączach operatorskich i całkowitej awarii (zupełny brak działania łącza, chociaż często znacznie niewystarczająca prędkość jest traktowana jako awaria) przez taki okres czasu, niekoniecznie jest upust 100%. Przy wprowadzeniu zapisów proponowanym kształcie może okazać się, że państwo będzie narzucało operatorom świadczenie usługi z parametrami wyższymi, niż sami mają szansę ją zakupić. Jasne, ISP może (i większość to robi) korzystać z więcej niż jednego operatora, by niwelować skutki awarii. Tylko, że to kosztuje. I w sumie Kowalski- jeśli mu bardzo zależy – może sobie kupić redundantne łącze, którego będzie używał w czasie awarii (no dobrze, kto ma 2 niezależne łącza w domu? ja nie, jeśli nie licząc drogiego i wolnego dostępu przez komórkę…).

Pamiętać też trzeba o tym, ilu ludzi potrzebnych jest do obsługi łącz operatorskich, żeby zmieścić się w SLA i przywrócić usługę w pojedyncze godziny. Mówimy o pracy 24/7, dyżurach itd. stosunkowo dużej ilości ludzi w przeliczeniu na ilość łącz/urządzeń. Ilu „techników” byłoby potrzebnych, żeby dotrzeć do Kowalskiego do domu w przypadku (realnego) problemu w ciągu pojedynczych godzin? Jak wpłynęłoby to na cenę usługi? Ktoś w ministerstwie ma pojęcie, ile kosztuje megabit na warunkach operatorskich?

Niezależnie od proponowanej wartości (czy będzie to 1, czy 10, czy 90%) pozostają kwestie problemu technicznego wykonania rzetelnego pomiaru (zwł. określenia do czego mierzyć) oraz kwestie prawne, do których dojdę.

Technologia

Wygląda, że Ministerstwo Infrastruktury wykazało się też sporą nieznajomością technologii, którą się nadzoruje. Proponuję przedstawicielom wybrać się na prezentację dowolnego profesjonalnego (operatorskiego) sprzętu radiowego posłuchać, jak to działa i co dzieje się z pasmem (i w jakim zakresie) przy pogorszeniu się warunków transmisji. Proponuję też poczytać trochę o mechanizmach QoS, przyjąć do wiadomości istnienie ruchu klasy „best effort” itd. Oraz zapoznać się u operatorów, jakie procentowe wartości pasma ustawiane są jako gwarantowane (i czemu nie jest to 90%), dla jakich klas itd.

W tej chwili proponuje się stawianie całego funkcjonowania sieci (i paru pokrewnych nauk związanych z prognozowaniem i modelowaniem) na głowie. Danie klientowi indywidualnemu gwarancji pasma, na dodatek rzędu 90% kłóci się ze wszelkimi szkołami, skazuje na niebyt technologię radiową i powoduje, że mechanizmy QoS przestają mieć sens, bo i tak trzeba (a na pewno jest taniej) projektować sieć na 100% możliwego ruchu (powiedzcie to telefonistom, pękną ze śmiechu). Operator zamiast z punktu A do punktu B mieć dwa niezależne łącza wysycone po 70% (i w przypadku całkowitej awarii jednego z nich świadczenia usługi z zaniżoną prędkością), będzie miał jedno. Przecież i tak nikt nie zapłaci za czas awarii, więc po co płacić za drugie łącze? Szybsze w jednym przebiegu będzie tańsze.

Kwestie prawne

Moim zdaniem, Ministerstwo Infrastruktury ma chrapkę na totalną kontrolę rynku i chce jej funkcjonowania poza istniejącymi przepisami prawa, bez oglądania się nawet na możliwości techniczne. Pod hasłem ochrony odbiorców z jednej strony chce kontroli nad ISP, ale pod innymi hasłami chce kontroli nad użytkownikami (retencja danych, cenzurowanie stron). Oczywiście nie za swoje pieniądze. A przecież w opisywanym problemie z prędkością wystarczyłoby skorzystać z istniejących ogólnych przepisów i możliwości prawnych typu niezgodność towaru z umową, klauzule niedozwolone itp. Skąd zatem nieobecne w aktualnym prawie „nie podoba mi się, to nie płacę”, wyłączenie sądów i skazywanie ISP na (nie)łaskę użytkowników? Nie lepiej skupić się na egzekwowaniu istniejących zapisów prawnych i kontroli stanu faktycznego? Pewnie nie, bo wymagałoby to pracy urzędników…

PS. UKE chce w maju debaty na ten temat. Patrz Message-ID: fed39d94-4325-403b-a6c7-81aa770f4b6f@u3g2000vbe.googlegroups.com W URL jest (i będzie), że pomysł jest UKE, nie MI, co nie jest prawdą – nie we wszystkich miejscach poprawiłem od razu i… zostało.