Pomysł MI na minimalną prędkość Internetu.

Pomysł

Niedawno Ministerstwo Infrastruktury wpadło na pomysł kolejnej regulacji. W skrócie, tym razem sprowadza się to do: jeśli komuś Internet działa, ale z prędkością niższą niż 90% maksymalnej określonej w ofercie, przez 12h lub dłużej w skali miesiąca, to ten ktoś nie płaci rachunku za Internet za dany miesiąc. Interesujące, prawda? Pomysł jest tak skandalicznie zły, że nie mogę go zmilczeć. No to po kolei (bardziej ze strony ISP, bo jest mi jednak bliższa, choć i klientem jestem):

Problem istnieje

Nie ma co ukrywać, że biznes w dostarczaniu Internetu klientom indywidualnym opiera się na kupnie większej ilości pasma i skorzystania z tego, że nie wszyscy korzystają jednocześnie (czyli tzw. overbooking lub overselling). Jednak żaden normalny ISP nie oferuje z premedytacją prędkości takich, których w normalnych warunkach nie jest w stanie zapewnić. Chyba, że na danym obszarze nie ma konkurencji… Co innego operatorzy komórkowi (kto osiąga reklamowane 7,2Mbps)? U nich nawet rozmowy telefoniczne są overbookowane. Wystarczy spróbować zadzwonić w Sylwestra, by się o tym przekonać…

Jasne, trzeba klientów chronić przed nieuczciwymi praktykami typu: na łączu 10 Mbps jest 30 klientów po 10 Mbps. Czy też nawet 3 klientów z abonamentem 10 Mbps. Ale 30 z abonamentem 1 Mbps? Co miałoby źle działać (i jak często)? Ale czy na pewno w ten sposób? Zgadzam się, że klient powinien być zwolniony z „lojalki”, powinien posiadać możliwość rozwiązania umowy lub otrzymać rekompensatę, jeśli problem z prędkością występuje, ale nie na takich zasadach, jak proponowane.

Źródła niskiej prędkości

Dostęp do Internetu składa się z następujących składników:

  • Infrastruktura po stronie klienta. Komputer, router, modem, połączenia między sprzętami (potencjalnie źle skonfigurowane wifi, poniszczone kable).
  • Infrastruktura po stronie dostawcy: kable, światłowody, radia, switche, routery, modemy (potencjalnie poniszczone kable, zakłócone radia, błędy konfiguracji).
  • Infrastruktura po stronie pośredników – zasadniczo podobna jak u dostawcy – w końcu dostawca jest dla nich klientem. Osobno, bo ISP nie ma wpływu na jej funkcjonowanie (poza wyborem operator X lub Y).
  • Infrastruktura po stronie dostawcy treści – routery, switche, serwery, aplikacje. Dodatkowo możliwość nakładania limitów różnej maści (choćby ograniczanie prędkości per połączenie czy per IP; wiele różnych błędów możliwych).

Problem jest z jednoznacznym pomiarem (samym pomiarem! bo co to tak naprawdę jest prędkość Internetu?), problem jest też z jednoznacznym określeniem źródła problemu (często jest to właśnie sprzęt w domu klienta). Wszystkie elementy każdej powyższej infrastruktury (klient, ISP, operatorzy pośredni, dostawca contentu) mają realny i znaczący wpływ na ostateczny wynik. Dlaczego każe się ISP dostarczającemu usługę klientowi indywidualnemu odpowiadać za infrastrukturę w domu klienta, u dostawców pośredniczących i u dostawcy treści? I czemu karze się go za błędy nie leżące po jego stronie? Bo do tego się ten projekt sprowadza.

Wartości

Sama wartość 90% prędkości jest wartością wysoką. Skrajnie wysoką. Rozumiałbym 1% czy też nawet w porywach 10%, ale nie 90%… Podobnie 12h – jest to wyśrubowane wymaganie. 1,6% czasu. Nawet przy łączach operatorskich i całkowitej awarii (zupełny brak działania łącza, chociaż często znacznie niewystarczająca prędkość jest traktowana jako awaria) przez taki okres czasu, niekoniecznie jest upust 100%. Przy wprowadzeniu zapisów proponowanym kształcie może okazać się, że państwo będzie narzucało operatorom świadczenie usługi z parametrami wyższymi, niż sami mają szansę ją zakupić. Jasne, ISP może (i większość to robi) korzystać z więcej niż jednego operatora, by niwelować skutki awarii. Tylko, że to kosztuje. I w sumie Kowalski- jeśli mu bardzo zależy – może sobie kupić redundantne łącze, którego będzie używał w czasie awarii (no dobrze, kto ma 2 niezależne łącza w domu? ja nie, jeśli nie licząc drogiego i wolnego dostępu przez komórkę…).

Pamiętać też trzeba o tym, ilu ludzi potrzebnych jest do obsługi łącz operatorskich, żeby zmieścić się w SLA i przywrócić usługę w pojedyncze godziny. Mówimy o pracy 24/7, dyżurach itd. stosunkowo dużej ilości ludzi w przeliczeniu na ilość łącz/urządzeń. Ilu „techników” byłoby potrzebnych, żeby dotrzeć do Kowalskiego do domu w przypadku (realnego) problemu w ciągu pojedynczych godzin? Jak wpłynęłoby to na cenę usługi? Ktoś w ministerstwie ma pojęcie, ile kosztuje megabit na warunkach operatorskich?

Niezależnie od proponowanej wartości (czy będzie to 1, czy 10, czy 90%) pozostają kwestie problemu technicznego wykonania rzetelnego pomiaru (zwł. określenia do czego mierzyć) oraz kwestie prawne, do których dojdę.

Technologia

Wygląda, że Ministerstwo Infrastruktury wykazało się też sporą nieznajomością technologii, którą się nadzoruje. Proponuję przedstawicielom wybrać się na prezentację dowolnego profesjonalnego (operatorskiego) sprzętu radiowego posłuchać, jak to działa i co dzieje się z pasmem (i w jakim zakresie) przy pogorszeniu się warunków transmisji. Proponuję też poczytać trochę o mechanizmach QoS, przyjąć do wiadomości istnienie ruchu klasy „best effort” itd. Oraz zapoznać się u operatorów, jakie procentowe wartości pasma ustawiane są jako gwarantowane (i czemu nie jest to 90%), dla jakich klas itd.

W tej chwili proponuje się stawianie całego funkcjonowania sieci (i paru pokrewnych nauk związanych z prognozowaniem i modelowaniem) na głowie. Danie klientowi indywidualnemu gwarancji pasma, na dodatek rzędu 90% kłóci się ze wszelkimi szkołami, skazuje na niebyt technologię radiową i powoduje, że mechanizmy QoS przestają mieć sens, bo i tak trzeba (a na pewno jest taniej) projektować sieć na 100% możliwego ruchu (powiedzcie to telefonistom, pękną ze śmiechu). Operator zamiast z punktu A do punktu B mieć dwa niezależne łącza wysycone po 70% (i w przypadku całkowitej awarii jednego z nich świadczenia usługi z zaniżoną prędkością), będzie miał jedno. Przecież i tak nikt nie zapłaci za czas awarii, więc po co płacić za drugie łącze? Szybsze w jednym przebiegu będzie tańsze.

Kwestie prawne

Moim zdaniem, Ministerstwo Infrastruktury ma chrapkę na totalną kontrolę rynku i chce jej funkcjonowania poza istniejącymi przepisami prawa, bez oglądania się nawet na możliwości techniczne. Pod hasłem ochrony odbiorców z jednej strony chce kontroli nad ISP, ale pod innymi hasłami chce kontroli nad użytkownikami (retencja danych, cenzurowanie stron). Oczywiście nie za swoje pieniądze. A przecież w opisywanym problemie z prędkością wystarczyłoby skorzystać z istniejących ogólnych przepisów i możliwości prawnych typu niezgodność towaru z umową, klauzule niedozwolone itp. Skąd zatem nieobecne w aktualnym prawie „nie podoba mi się, to nie płacę”, wyłączenie sądów i skazywanie ISP na (nie)łaskę użytkowników? Nie lepiej skupić się na egzekwowaniu istniejących zapisów prawnych i kontroli stanu faktycznego? Pewnie nie, bo wymagałoby to pracy urzędników…

PS. UKE chce w maju debaty na ten temat. Patrz Message-ID: fed39d94-4325-403b-a6c7-81aa770f4b6f@u3g2000vbe.googlegroups.com W URL jest (i będzie), że pomysł jest UKE, nie MI, co nie jest prawdą – nie we wszystkich miejscach poprawiłem od razu i… zostało.

Egipt.

Nie będę pisał o (dramatycznej) sytuacji politycznej Egiptu (celowo mirror, źródło oryginalne działa, ale…), skupię się tylko na aspekcie technicznym i przekazywaniu informacji. Po pierwsze, jak wiadomo, został odcięty cały dostęp Egiptu do Internetu. Z tego co wiadomo, na poziomie sesji BGP, bez wpływu na linie tranzytowe. Wygaszanie wygląda na zaplanowane, z upewnianiem się co do braku wpływu na zagranicznych operatorów. Wygląda, że dążą do tego, aby ukryć to, co dzieje się wewnątrz kraju, bez dawania powodów krajom zewnętrznym do angażowania się.

Dodatkowo, wyłączone zostały najpierw SMSy, a potem sieci komórkowe. W takiej sytuacji wszelkie tunelowania są bezużyteczne. Odcięcie na poziomie BGP oznacza, że TOR nic nie pomoże. Przez chwilę, nie znając dokładnie sytuacji, liczyłem, że wewnętrznie Internet działa z jakimś proxy dla zapytań DNS, co umożliwiłoby tunelowanie w zapytaniach DNS, ale nie.

Okazało się, że z działających rzeczy zostały tylko stare technologie: modemy dial-up (linie analogowe i wyjścia za granicę nie zostały odcięte, przynajmniej nie wszystkie) i ham radio. Pojawiły się oczywiście problemy z retransmisją odebranych sygnałów – poczynając od tego, że ktoś nie bardzo ma możliwość, bo jest w pracy, przez brak sprzętu lub możliwości (internet domowy w USA to jakaś pocięta parodia). Część transmisji była odbieranych alfabetem Morse’a, część głosowo. W przypadku odbieranych Morsem pojawiał się problem dekodowania (mało kto zna, jeszcze mniej zna płynnie). Istnieją automaty do tego, ale płatne i podobno słabo radzące sobie z zaszumionym sygnałem.

Większość ww. rzeczy robią ochotnicy, czasami z pomocą ISP, którzy zapewniają dostęp wdzwaniany. Z kolei TV, które są masowo dostępne, pokazują informacje tendencyjnie, często przeinaczając.

Podsumowując: mimo obecnej techniki (a może właśnie przez nią), szanse na wolne, nieocenzurowane przekazywanie informacji są niewielkie, jeśli rząd zechce coś wyciszyć. Na organizowanie niezależnej łączności jest za późno, gdy jest ona potrzebna – możliwości są niewielkie.

Apt-p2p – ostateczny test

Krótko o apt-p2p

Apt-p2p spodobał mi się od razu, gdy tylko o nim usłyszałem. Jest to bardzo ciekawe podejście, w którym pobieranie pakietów deb odbywa się przy pomocy P2P (protokół bittorrent), zamiast z tradycyjnych centralnych repozytoriów (HTTP, FTP). Centralne repozytoria są wykorzystywane wyłącznie w przypadku, kiedy pakiet nie jest dostępny przez P2P lub nie jest wystarczająco popularny (za mało peerów).

Kiedyś zrobiłem krótki test apt-p2p, ale trudno go nazwać miarodajnym – maszyna była bardzo słaba, demon ma spory apetyt na zasoby i nie udało mi się wtedy zmusić go do działania jako proxy dla innych maszyn, a sam test nie trwał długo. Od tamtej pory minęło trochę czasu. Maszynka robiąca za router została wymieniona na coś bardziej współczesnego, znalazłem sposób na uruchomienie apt-p2p jako lokalnego proxy (brzydki, bo wymaga gmerania w kodzie, ale się da i działa). Program dostał drugą szansę.

Efekty działania

Demon był testowany (czyli po prostu używany) w sumie na trzech maszynach, przez parę tygodni. Pierwsza maszyna, działająca 24/7, w zasadzie base system + parę pakietów, Lenny, publiczne IP, robiła też za proxy dla kolejnej (desktop, Lenny). Apt-p2p w wersji 0.1.5:

Transport

Mirror DownloadsPeer DownloadsPeer Uploads
This Session0.0B0.0B0.0B
Session Ratio0.00%0.00%0.00%
All-Time108MiB32.5MiB50.4MiB
All-Time Ratio76.85%23.15%35.86%

Maszyna druga (mój desktop), Squeeze, za NAT, bez przekierowanych portów. Apt-p2p w wersji 0.1.6:

Transport

Mirror DownloadsPeer DownloadsPeer Uploads
This Session47.4MiB119KiB0.0B
Session Ratio99.75%0.25%0.00%
All-Time1.07GiB340MiB0.0B
All-Time Ratio76.33%23.67%0.00%

Statystyk trzeciej maszyny nie zaprezentuję – napotkałem na dziwny problem z pobieraniem plików, być może mający związek z uruchomieniem tunelu IPv6 (MTU? brak wsparcia dla IPv6 w apt-p2p?) i cache był czyszczony przy okazji prób rozwiązania problemu. Jak patrzyłem wcześniej, to nic specjalnie różniącego się od powyższych nie zauważyłem.

Inne uwagi

Pierwsze, co rzuca się w oczy po zmianie sposobu pobierania, to fakt, że pobieranie jest znacznie wolniejsze, niż normalnie. Widać to szczególnie na szybszych maszynach, z lepszym łączem. Prawda jest taka, że zwykle z tradycyjnych repozytoriów pakiety lecą z pełną prędkością. W przypadku skorzystania z apt-p2p widać przy każdym pliku laga, zapewne chodzi o sprawdzanie, czy peery posiadają dany pakiet. Nie jest to drastyczne dla aktualizacji systemu, ale drażni, jeśli potrzebujemy szybko doinstalować jakiś pakiet.

Jeśli chodzi o pobieranie, to jak widać na tej mizernej próbce, stosunek pakietów pobieranych tradycyjnie do pobieranych przez P2P jest w miarę stały i wynosi około 3 do 1. Całkiem niezły wynik, szczerze mówiąc liczyłem na znacznie mniej pobieranych przez P2P.

Widać też wyraźnie, że przekierowanie portu jest absolutnie niezbędne, jeśli nie chcemy być leecherem. Szczerze mówiąc, liczyłem, że coś tam będzie się wysyłać zza NAT do peerów z publicznym IP, tak jak przy tradycyjnym P2P, ale widocznie implementacja protokołu niestety nie pozwala na to.

Pakiet ma sporo błędów, a autor nie spieszy się z ich usunięciem. Wspomniany wcześniej brak prostego sposobu na uruchomienie apt-p2p jako lokalnego proxy to jeden z przykładów. Do tego dochodzą nieciekawe defaulty związane z miejscem zajmowanym przez logi czy problemy z działaniem przy zmianie IP lub utracie łączności z Internetem.

Na szybką poprawę błędu związanego z możliwym DDoSem przez klientów P2P też pewnie nie ma co liczyć… Nawet nie zgłaszałem tego, bo na inne błędy zero reakcji autora. Taki brak odpowiedzi jest okrutnie demotywujący, fajnie jest usłyszeć choćby, że będzie poprawione w następnej wersji, albo że nie uważa tego za (poważny) błąd.

Ewidentnie brakuje silnego community wokół projektu, najlepiej ze znajomością Pythona (przyznaję, próbowałem nieco z powyższych poprawić przez dodanie opcji, ale prawda jest taka, że ciężko i długo robi się coś w języku, którego się nie zna).

Zapewne wszystko wiąże się z tym, że apt-p2p jest mało popularny. Widać to choćby na kanale IRC poświęconym programowi. Zapewne prędkość pobierania byłaby wyższa, gdyby peerów było więcej, pewnie udałoby się poprawić część błędów, a autor miałby większą motywację do pracy widząc, że program jest popularny.

Podsumowanie

Uważam, że w tej chwili apt-p2p jest mocno zapuszczony, słabo przetestowany i IMHO nadaje się wyłącznie dla geeków. Jeśli są chętni (najlepiej ze znajomością Pythona) do zabawy z tym programem, to dajcie znać. Jest dobry moment na popularyzację tego rozwiązania, przy okazji pewnie dałoby się odciążyć nieco mirrory przy wydaniu Squeeze’ego (i zapewnić szybszy upgrade do nowego systemu – tak przynajmniej twierdzono w swoim czasie w przypadku Ubuntu). Jeśli chętnych brak, to nie pozostaje nic innego, jak wyłączyć apt-p2p i znowu poczekać parę lat… Może coś się zmieni.