Apple będzie skanować zdjęcia i wiadomości w iPhone'ach, iPadach i Macach w celu ochrony dzieci

Apple będzie skanować zdjęcia i wiadomości w iPhone'ach, iPadach i Macach w celu ochrony dzieci

Aby chronić dzieci przed pedofilami, Apple wprowadza nowe funkcje bezpieczeństwa dla całego swojego ekosystemu, które motywuje ochroną dzieci przed pedofilami, ale nie da się ukryć, że zmiany z perspektywy użytkowników sprzętów tej firmy są dość kontrowersyjne. 

Apple będzie skanować zawartość aplikacji Wiadomości i iCloud za pomocą „uczenia maszynowego na urządzeniu”. Firma z Cupertino twierdzi, że narzędzia przeznaczone do wykrywania materiałów związanych z wykorzystywaniem seksualnym dzieci nie będą używane do uzyskiwania dostępu do naszych wiadomości i fotografii, chociaż zapewnienie producenta zapewne nie uspokoi wszystkich użytkowników.

Apple będzie skanować zawartość aplikacji Wiadomości i iCloud za pomocą „uczenia maszynowego na urządzeniu”.

Apple będzie skanować zdjęcia i wiadomości w iPhone'ach, iPadach i Macach w celu ochrony dzieci

Te nowe funkcje zostaną wprowadzone jeszcze w tym roku na iPhone'ach, iPadach i Macach. Po zaktualizowaniu nowa aplikacja Wiadomości będzie ostrzegać dzieci o wysyłaniu i otrzymywaniu nieodpowiednich zdjęć. Na przykład po otrzymaniu takiego zdjęcia telefon wyświetli następujący komunikat: „To może być nieodpowiednie do pokazania. Czy na pewno?” Jeśli dziecko i tak zdecyduje się je otworzyć, telefon może powiadomić rodziców.

Nowa funkcja bezpieczeństwa będzie również skanować obrazy związane z wykorzystywaniem dzieci w Zdjęciach iCloud. Według firmy takie zdjęcia są dopasowywane za pomocą „technologii kryptograficznej zwanej Private Set Intersection, która określa, czy istnieje dopasowanie, bez ujawniania wyniku”. Proces ten wykorzystuje dane dostarczone przez Narodowe Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC). Według Apple ta nie może wyświetlić zawartości naszych zdjęć iCloud, chyba że system wykryje obrazy przedstawiające wykorzystywanie dzieci. Producent zapewnia o wysokim poziomie dokładności z szansą na nieprawidłowe oznaczenie konta mniejszą niż jedno na kwintylion.

W nadchodzącej aktualizacji Siri i Search będą interweniować, jeśli użytkownik będzie szukać nieodpowiednich treści związanych z dziećmi. Użytkownik zostanie poinformowany, że „Materiały przedstawiające seksualne wykorzystywanie dzieci są nielegalne. Istnieją anonimowe telefony zaufania i wskazówki dla dorosłych z ryzykownymi myślami i zachowaniem”.

To świetna inicjatywa, która wykorzystuje najnowocześniejszą technologię do ochrony dzieci przed przestępcami. Jednak po kilku poprawkach może być również używana przeciwko osobom o niewygodnych poglądach politycznych czy światopoglądowych, które nie są zgodne z poglądami Apple. Całość bazuje na zaufaniu, że firma będzie korzystać z tej technologii w sposób etyczny. A biorąc pod uwagę, że to ta sama firma, która lobbowała przeciwko ustawie mającej na celu zatrzymanie pracy przymusowej w Chinach, gigant może mieć problem ze zdobyciem tego zaufania. 

Zobacz także:

Pokaż / Dodaj komentarze do: Apple będzie skanować zdjęcia i wiadomości w iPhone'ach, iPadach i Macach w celu ochrony dzieci

 0