Apple bude skenovať iCloud pri hľadaní obrázkov, ktoré obsahujú násilie páchané na deťoch.

Fotografia autor
tajnosť

Je známe, že Apple veľmi dbá na dôvernosť dát, ktoré prechádzajú zariadeniami v ekosystéme a sú dobre chránené pred zvedavými pohľadmi. To však neznamená, že používatelia nemusia dodržiavať pravidlá týkajúce sa etiky, morálky a prečo nie, ľudskosti.

Apple oznámil, že čoskoro uvoľní technológiu schopnú skenovať všetky obrázky uložené používateľmi v iCloud a identifikovať fotografie, ktoré obsahujú sexuálne zneužívanie detí. Materiál sexuálneho zneužívania detí (CSAM).
Túto technológiu spustí Apple koncom tohto roka, pravdepodobne v pilotnej verzii, pre obmedzený počet používateľov.

Ak sa sami seba pýtate „kde je dôvernosť údajov?“, zistite, že všetko, čo dostávame, je obsah videá/fotky vykonáva sa prostredníctvom šifrovaného protokolu. Rovnakým spôsobom je šifrované ukladanie údajov v iCloud, ale poskytovatelia takýchto služieb majú kľúč na šifrovanie údajov. Tu nehovoríme len o Apple. Microsoft, Google a ďalšie cloudové služby na ukladanie údajov robia to isté.

Uložené údaje môžu byť dešifrované a overené, ak sú požadované v rámci súdneho konania alebo ak zjavne porušujú zákony. Napríklad tie, ktoré sa týkajú násilných činov voči deťom a ženám.

Na ochranu súkromia používateľov sa spoločnosť spolieha na novú technológiu s názvom NeuralHash, ktorá bude skenovať fotografie iCloud a identifikovať tie, ktoré obsahujú násilie na deťoch, porovnaním s inými obrázkami v databáze.
Je to niečo podobné ako rozpoznávanie tváre alebo inteligentné rozpoznávanie predmetov, zvierat a iných prvkov.

Táto technológia bude schopná skenovať a overovať obrázky, ktoré sú nasnímané alebo prenesené prostredníctvom zariadenia iPhone, iPad alebo Mac, aj keď prejdú zmenami.

O operačných systémoch Windows a Linux píšem z vášne už v roku 2004 a od roku 2010 som sa stal fanúšikom univerza Apple. V súčasnosti píšem tutoriály pre Mac, iPhone, iPad, Apple Watch, AirPods a ďalšie zariadenia Apple.

Zanechať komentár