Bateria podwójnie chroniona

Jakiś czas temu telefon mnie zaskoczył przy okazji ładowania. Pojawiło się jakieś powiadomienie, że teraz o baterię[1] w moim telefonie może dbać AI. Upewniwszy się, mam pod ręką ciężki i twardy przedmiot, na wypadek gdyby AI postanowiło przejąć kontrolę nad urządzeniem, zacząłem czytać dokładniej.

Przypuszczam, że to jakaś nowa funkcjonalność, która przyszła z ostatnią aktualizacją Androida, bo wcześniej tego nie kojarzyłem. Optimized charging – bo tak się nazywa funkcja – ma być przydatna, gdy podłączamy telefon do ładowarki w stałych porach. Nie jest zalecana, jeśli ładujemy nieregularnie.

Niby wykorzystuje AI, aby nauczyć się wzorca, kiedy telefon jest podpięty do ładowarki, następnie ogranicza ładowanie do 80%. Około godziny przed planowanym odłączeniem, pozwala się naładować baterii do 100%. Znaczy się nie AI w obecnym rozumieniu, a pewnie jakiś machine learning, zapewne.

Druga funkcja to overcharge protection. Działa prościej, jeśli 3 kolejne dni telefon był podłączany do ładowarki, to ogranicza ładowanie do 80% pojemności baterii. A raz w tygodniu, w celu utrzymania poprawnej kalibracji, ładuje do 100%.

Tak, Android dorobił się dwóch niezależnych, konkurencyjnych sposobów ochrony baterii.

Korzystam z tego drugiego wariantu, bo raczej nie podłączam ładowarki, jeśli bateria nie jest bliska rozładowania. I mam wątpliwość, czy faktycznie ładuje do 100%, bo jakoś tego nie zauważyłem. Czy to coś daje? Nie potrafię zweryfikować, ale ładowanie do 80% zupełnie mi nie przeszkadza. Jeśli potrzebuję pełnej pojemności (podróż itp.) to po prostu wyłączam funkcję.

[1] Znaczy się akumulator. Ale pomału pomału kalka z angielskiego zdobywa polski język. Stawiam, że jeszcze dekada, może dwie i akumulator będzie równie częsty, jak obecnie niedeklinowane radio.

LLMy nie kłamią

Sztuczna inteligencja, skrótowo zwana AI wciska się ostatnio wszędzie, czy sens jest, czy go nie ma. Tak naprawdę zaczęliśmy ostatnio określać tym mianem głównie LLMy, ale nie zawsze tak było. Ktoś pamięta takie rzeczy jak algorytmy genetyczne? Niemniej, obecnie jeśli ktoś mówi o AI, to najprawdopodobniej chodzi mu o LLM.

W każdym razie, jak bumerang w wypowiedziach powraca temat „uczłowieczania” AI. Często słyszymy zwrotu typu AI kłamie, AI się myli czy AI rozumie polecenia. Ostatnio spotkałem się z bardzo ciekawym moim zdaniem stanowiskiem, że LLMy nie mogą kłamać. Teraz pewnie wszyscy starają się przypomnieć sobie ostatni niezaprzeczalny dowód na kłamstwo LLMa. Jednak tak naprawdę chodzi o coś innego, niż błędna, niezgodna ze stanem faktycznym odpowiedź. Kwestia jest bardziej filozoficzna. Żeby kłamać, AI musiałoby wiedzieć, co jest prawdą i świadomie udzielić innej odpowiedzi. I podejście takie bardzo mi się podoba.

Tymczasem LLM nie wie, co to jest prawda, nie myśli, nie rozumie pytania. Na podstawie dostarczonych wcześniej danych, na których został wytrenowany, generuje tekst, który ma pasować do zadanego pytania. Czyli: weź wprowadzony tekst, przetwórz go na dane wejściowe, których umiesz używać. Następnie wygeneruj pasującą odpowiedź w swoich danych/języku, przetwórz ją na tekst. Tak w skrócie, bo jest jeszcze prompt, który – podobnie jak pytanie – jest danymi wejściowymi i potrafi wpływać na wynik. Ale znowu, nie w formie rozumienia go przez AI tak, jak my rozumiemy rozumienie. No i AI nie działa deterministycznie. Nawet, jeśli zwykle daje dość powtarzalne (najbardziej prawdopodobne) wyniki.

Łatwiej to wszystko chyba zrozumieć ludziom, którzy bawili się algorytmami genetycznymi czy łańcuchami Markowa tak z ćwierć wieku temu. A niestety odruchowo łatwo jest przypisywać cechy ludzkie czemuś, co zachowuje się podobnie do człowieka[1]. Nawet, jeśli zasada działania jest zupełnie inna.

Dlatego następnym razem, zamiast powiedzieć: LLM kłamie lepiej rzec LLM wygenerował odpowiedź, która nie ma pokrycia w rzeczywistości. Ale nie mam złudzeń, nikt tak mówić nie będzie. Lubimy uproszczenia.

[1] Pewnie nawet można pokusić się o twierdzenie, że mamy – jako gatunek – tendencję do zrównywania komunikacji z myśleniem czy inteligencją. Podobno często niesłyszący traktowani są jako upośledzeni intelektualnie. Przy LLMach byłoby odwrotnie: składa zdania, znaczy myśli.

Ludzie kontra AI

Nie będzie to wpis o tym, czy faktycznie AI odbiera pracę albo komu. Będzie o sprzeciwie. I o tym, że ludzie są przeciw AI. Być może pierwszym zauważalnym, na pewno godnym odnotowania.

Zaczęło się niewinnie. Jarosław Juszkiewicz, który był przez 15 lat polskim głosem w Google Maps, został zwolniony przez koncern Google. Kilka dni temu pożegnał się w social media:

Jak podaje Wikipedia, nie jest to pierwsza próba zastąpienia go automatem. Z pierwszej Google się wycofało. Tym razem, gdy syntezator oparty jest o AI – nie.

Dramatu zwalnianego człowieka razem tu nie ma, bo lektor pracę szybko znalazł – dziś pojawiły się doniesienia o tym, że zatrudnił się w Orlenie. Ale nie o tym ma być ten wpis.

Chodzi o reakcję ludzi na tę sytuację. Oczywiście zwolnienie lektora nie spodobało się użytkownikom, którzy dają wyraz niezadowoleniu. Ocena aplikacji Google Maps w sklepie Google Play spada na pysk. Wczoraj było to 2,2. Dziś rano – 2,1. A gdy piszę ten wpis jest 1,9. Przy 17,68 mln ocen. Przypadek? Nie sądzę.

Czy to zaboli Google? Niekoniecznie. Monopolista zapewne sobie poradzi. Na systemach z Android Google Maps chyba są instalowane domyślnie. Uznanych alternatyw brak. Google maps mają ponad 10 mld pobrań. Jeśli dobrze widzę, kolejne aplikacje na frazę „maps” to Google Maps Go oraz – także powiązana z Google – nawigacja samochodowa Waze mają po 500 mln. Zresztą, nie zdziwiłbym się, gdyby Google skorygowało ocenę w swoim sklepie. W końcu Nazwa.pl zrobiła kiedyś podobnie.

Ale może wydarzenie przejdzie do historii jako pierwszy(?) zauważalny(?) bunt ludzi przeciwko AI. W zasadzie nie tyle chodzi o to, że ludzie są przeciw AI, co przeciw chciwości koncernu, a AI jest tylko w tle, no ale…