Tłumaczenia

Ponieważ tłumaczenia są jedną z form pomocy wolnemu oprogramowaniu (i okolicom), dostępną nawet ludziom średnio się znającym na samym programowaniu, to jakiś czas temu zacząłem udzielać się przy tłumaczeniach. Nie ukrywam – sporo czytam, trochę piszę, a część tłumaczeń przyprawiała o zgrzytanie zębów. Nie żebym był zadowolony z własnych, ale…

Początkowo był to PDDP rozkręcony IIRC przez Fenia. Niewiele pamietam, poza tym, że było i coś tam się otarłem. Potem zdryfowałem bardzie w kierunku meta i ideologii, czyli tekstów na gnu.org. Zaczęliśmy sporą grupą, ale szybko wykruszyło się do paru osób. Niedługo później zapał zgasł, zostało nas paru niedobitków. I jakoś tak się ciągnęło, aż zupełnie umarło – ostatnia wymiana maili z rok temu, ostatni commit pewnie z dwa lata temu…

W międzyczasie jakieś luźne, nieregularne i anonimowe tłumaczenia w ramach Debian Description Translation Project, bo dotarło do mnie, że jak ktoś nie zna języka angielskiego, to z Linuksem słabo sobie poradzi, więc tłumaczenie wszystkiego nie ma sensu. Za to opisów pakietów – jak najbardziej.

Tłumaczenie było całkiem przyjemnym doświadczeniem. Zalet jest sporo: uważna lektura tekstów źródłowych, większa ilość czytanych artykułów, kontakt z językiem i jego szlifowanie. Poza tym, ma się trochę do czynienia z systemami kontroli wersji, narzędziami, formatami i procedurami ułatwiającymi tłumaczenia, co przydaje się później przy różnych okazjach, od programowania, przez adminkę i projektowanie rozwiązań IT.

Jest to też okazja do zaobserwowania pewnych archaizmów i formalizmów w praktyce. Na przykład tłumacze GNU używają jako systemu kontroli wersji CVS. Nie żeby nie wystarczał, ale jednak Git jest wygodniejszy i lepszy. NIH? Przyzwyczajenie?

Z kolei inni nie korzystają z plików PO/POT (poedit FTW!), tylko stosują własne formaty/rozwiązania i tłumaczą na żywca HTML. Cóż, można i tak (nie żebym lubił, ale da się).

Wpis wyniknął z tego, że znalazłem (w końcu!) fajny opis pewnego zagadnienia związanego z Perlem, zobaczyłem, że stronę można tłumaczyć, a nie ma wersji polskiej… Spodobał mi się samouczek Perla i uznałem, że przyda się ludziom i… zacząłem tłumaczyć. Repo jest na GitHubie, można forkować i podsyłać pull requesty. AKA zachęcam.

Tak, mam świadomość, że strona nie jest zupełnie niekomercyjna. Jakoś mi to nie przeszkadza. Dość zwarta, nieźle napisana, tłumaczyć zamierzam tylko część dostępną dla wszystkich. Planów żadnych nie ma, raczej – jak zapowiedziałem autorowi – best effort. Niemniej, z różnych względów tempo ostatnio siadło, więc wpis ma być motywatorem. Nie żebym liczył, że zadziała, za dobrze się znam.

Inne: odkryłem GitHub na nowo, w sumie bardzo social network, tylko w troszkę innej kulturze. Odkryłem też na nowo/systematyzuję Perla. Zupełnie niezwiązane: zauważyłem, że próbuję za dużo srok za ogon łapać. To się nie może udać, ale ponieważ to tylko hobby, a nie praca, to nic się nie stanie, jak ten czy inny projekt zahibernuje na jakiś czas, czy wręcz totalnie zdechnie.

Korzystając z apt-dater – parę uwag

Od pewnego czasu korzystam z opisywanego kiedyś narzędzia apt-dater do aktualizacji hostów w środowiskach większych, niż kilka własnych testowych maszyn. Garść praktycznych uwag nt. używania w takich środowiskach.

  1. W okolicy wersji 1.0 zmienił się format pliku (teraz jest XML), przez co linkowany wyżej opis jest nieaktualny. Zmian wymagał też skrypt generujący konfigurację apt-datera na podstawie danych z Chefa.
  2. Warto podzielić hosty na grupy – raz, że łatwiej decydować, gdzie wykonujemy aktualizację w danym momencie, dwa, że każdy host to osobne procesy w momencie działań więc… może być tego za dużo, jeśli zaczniemy aktualizować listę pakietów wszędzie jednocześnie (tak, mam skonfigurowane limits na workstacji, tak walnąłem w limity, jak leciałem hurtem).
  3. Sama aktualizacja to nie wszystko, trzeba jeszcze zrestartować procesy korzystające ze starych bibliotek. Kiedyś był checkrestart, teraz jest bardziej popularny –  i nieźle współpracujący z apt-daterneedrestart.
  4. Niezależnie od podziału na grupy, można ad hoc zaznaczyć hosty do wykonania operacji (polecenie tag). Sposób niezbyt intuicyjny, bo najpierw zaznaczamy hosty [t], następnie zatwierdzamy je do wykonania [;], a na końcu wybieramy polecenie do wykonania.
  5. Apt-dater przyspiesza pracę, ale nie udało mi się (i nie tylko mi), uniknąć podłączania do każdej sesji po zakończeniu aktualizacji i zamykania jej. Nawet, jeśli cała aktualizacja przeszła pomyślnie, bez interaktywnych pytań i nie ma nic do restartu. Gdyby się komuś udało – proszę o komentarz.
  6. Odpowiednio ustawione hold lub apt_preferences to podstawa, jeśli ma się jakieś dziwne (czytaj: 3rd party) pakiety, których autorzy niezupełnie umieją paczkować Debian way.

W każdym razie apt-dater bardzo ułatwia i przyspiesza pracę. Generalnie polecam.

NLNOG RING – zdiagnozuj sobie sieć

Odwieczny problem administratorów sieci to mogę sprawdzić trasę od siebie do danego hosta, ale jak wygląda w drugą stronę? Próbą rozwiązania tego zagadnienia były looking glass, pozwalające na wykonanie od określonego operatora ping czy traceroute. Czasem potrzeba jednak czegoś więcej – sprawdzenia resolvowania DNS, zbadanie stabilności transferu itp. Ogólnie przydałby się shell.

Projekt NLNOG RING jest odpowiedzią na to zapotrzebowanie. Opiera się na prostej zasadzie wzajemności: udostępniamy maszynę wirtualną (administrowaną przez opiekunów projektu) dla projektu, w zamian otrzymujemy dostęp do pozostałych maszyn projektu, w różnych częściach świata i – co ważniejsze – w wielu różnych ASN.

Wymagania co do maszyny są naprawdę niewielkie – 1 GB RAM, 20 GB dysku, 1 core 64bit procesora, adresy IPv4 oraz IPv6. Musi stać w naszym AS i na naszej adresacji. Myślę, że w tej chwili większość operatorów, nawet niewielkich sieci radiowych jest w stanie sprostać. Pozostałe wymagania stawiane organizacji (usługa jest kierowana do firm) to m.in.: bycie operatorem sieciowym, własne ASN, prefiksy IPv4 i IPv6, zgoda organizacji na uczestnictwo w projekcie.

Możliwe jest zarówno połączenie po SSH do wybranej maszyny, jak i wykonywanie, przy pomocy dostępnych narzędzi, operacji na wszystkich maszynach projektu jednocześnie. Generalnie potrafi bardzo pomóc w diagnostyce.

Projekt działa od wielu lat, ale dziś dowiedziałem się, że nawet w środowisku sieciowym niekoniecznie jest znany, więc uważam, że warto przypomnieć o jego istnieniu. Teoretycznie istnieje ryzyko nadużyć, ale użytkownikami są administratorzy sieci, polityka to zero tolerancji dla nadużyć i nie kojarzę jakichkolwiek problemów związanych z udostępnianiem maszyny. Korzystałem, polecam.