Przez sieć przetacza się fala komentarzy dotyczących wprowadzanego przez Apple skanowania zdjęć. Dotyczą one głównie zagadnień technicznych, typu czy hashe będą miały kolizje[1], czy będą false positive’y[2] albo kiedy będzie miało miejsce skanowanie zdjęcia. Nieliczne komentarze poruszają możliwość innego niż deklarowana wykorzystania rozpoznawania zawartości zdjęć.
Wydaje mi się, że większość komentarzy pomija sedno. Pod pozorem walki z pedofilią mamy bowiem do czynienia z udostępnieniem, prywatnych dokumentów do analizy firmie trzeciej lub służbom. Bez wymaganej dotychczas zgody sądu. I nie ma tu znaczenia, czy ocena jest automatyczna, czy ręczna.
Ba, nawet false positives są odbierającym prywatność na rękę. Przypuszczam bowiem, że szybko pojawi się procedura pozwalająca na ocenę – czyli przejrzenie przez człowieka – zdjęcia uznanego za naruszenie. Oczywiście motywowana redukcją false positives. Albo może – dla pewności i uniknięcia ewentualnych false negatives – od razu większej ilości zdjęć danego użytkownika?
W każdym razie w mojej ocenie jest to typowe zagranie odbierające ludziom wolność i prywatność, z klasycznym uzasadnieniem. Dla przypomnienia: tego typu zmiany zawsze forsowane są zwykle albo pod hasłem walki z pedofilią, albo walki z terroryzmem.
Nie rozpatrywałbym też tego jako finalnej zmiany. To, czy teraz skanowane są tylko zdjęcia wysyłane do chmury, czy robi to tylko Apple nie ma znaczenia. Uważam, że chodzi o zmianę mentalności i zrobienie pewnego wyłomu. Z czasem rozwiązanie można przecież rozszerzyć na inne platform. Albo wręcz nakazać producentom wsparcie skanowania wszystkich zdjęć, niezależnie od faktu ich wysyłania gdziekolwiek.
Gdyby ktoś się zorientował, że tego typu rozwiązania można ominąć przez stosowanie, czy nie będzie to wspaniały pretekst do zakazu szyfrowania? W imię walki z pedofilią albo terroryzmem, oczywiście.
[1] Oczywiście, że tak.
[2] Oczywiście, że tak.