2021 m. „Apple“ paskelbė apie daugybę naujų vaikų saugos funkcijų, įskaitant „iCloud Photos“ skirtą vaikų seksualinės prievartos medžiagos (CSAM) aptikimą. Tačiau šis žingsnis buvo plačiai kritikuojamas dėl privatumo problemų. Sustabdžiusi ją neribotam laikui, „Apple“ patvirtino, kad sustabdė savo planus diegti CSAM aptikimo sistemą. […]
Skaityti Daugiau