Je známe, že Apple veľmi dbá na dôvernosť dát, ktoré prechádzajú zariadeniami v ekosystéme a sú dobre chránené pred zvedavými pohľadmi. To však neznamená, že používatelia nemusia dodržiavať pravidlá týkajúce sa etiky, morálky a prečo nie, ľudskosti.
Apple oznámil, že čoskoro uvoľní technológiu schopnú skenovať všetky obrázky uložené používateľmi v iCloud a identifikovať fotografie, ktoré obsahujú sexuálne zneužívanie detí. Materiál sexuálneho zneužívania detí (CSAM).
Túto technológiu spustí Apple koncom tohto roka, pravdepodobne v pilotnej verzii, pre obmedzený počet používateľov.
Ak sa sami seba pýtate „kde je dôvernosť údajov?“, zistite, že všetko, čo dostávame, je obsah videá/fotky vykonáva sa prostredníctvom šifrovaného protokolu. Rovnakým spôsobom je šifrované ukladanie údajov v iCloud, ale poskytovatelia takýchto služieb majú kľúč na šifrovanie údajov. Tu nehovoríme len o Apple. Microsoft, Google a ďalšie cloudové služby na ukladanie údajov robia to isté.
Uložené údaje môžu byť dešifrované a overené, ak sú požadované v rámci súdneho konania alebo ak zjavne porušujú zákony. Napríklad tie, ktoré sa týkajú násilných činov voči deťom a ženám.
Na ochranu súkromia používateľov sa spoločnosť spolieha na novú technológiu s názvom NeuralHash, ktorá bude skenovať fotografie iCloud a identifikovať tie, ktoré obsahujú násilie na deťoch, porovnaním s inými obrázkami v databáze.
Je to niečo podobné ako rozpoznávanie tváre alebo inteligentné rozpoznávanie predmetov, zvierat a iných prvkov.
Táto technológia bude schopná skenovať a overovať obrázky, ktoré sú nasnímané alebo prenesené prostredníctvom zariadenia iPhone, iPad alebo Mac, aj keď prejdú zmenami.








