Apple naskenuje iCloud při hledání obrázků, které obsahují násilí na dětech.

Foto autora
Stealth

Je známo, že Apple velmi dbá na důvěrnost dat, která procházejí zařízeními v ekosystému a jsou dobře chráněna před zvědavými pohledy. Neznamená to však, že se uživatelé nemusejí řídit pravidly souvisejícími s etikou, morálkou a proč ne, lidskostí.

Apple oznámil, že brzy uvede technologii schopnou skenovat všechny obrázky uložené uživateli iCloud a identifikovat fotografie, které obsahují sexuální zneužívání dětí. Materiál pro sexuální zneužívání dětí (CSAM).
Tuto technologii spustí Apple koncem letošního roku, pravděpodobně v pilotní verzi, pro omezený počet uživatelů.

Pokud se sami sebe ptáte „kde je důvěrnost dat?“, zjistěte, že vše, co dostáváme, je obsah videa/fotky provádí se pomocí šifrovaného protokolu. Stejně tak úložiště dat na iCloudu je šifrováno, ale poskytovatelé takových služeb drží klíč pro šifrování dat. Zde nemluvíme pouze o Apple. Microsoft, Google a další cloudové služby pro ukládání dat dělají totéž.

Uložená data mohou být dešifrována a ověřena, pokud jsou požadována v rámci právního jednání nebo pokud zjevně porušují zákony. Například ty, které se týkají násilných činů na dětech a ženách.

Pro zachování soukromí uživatelů společnost spoléhá na novou technologii nazvanou NeuralHash, která bude skenovat fotografie na iCloudu a identifikuje ty, které obsahují násilí na dětech, jejich porovnáním s jinými obrázky v databázi.
Este oarecum ceva similar cu recunoastea faciala sau cu recunoasterea inteligenta a obiectelor, animalelor si a altor elemente.

Tehnologia va fi capabila sa scaneze si sa verifice pozele care sunt facute sau transferate printr-un device iPhone, iPad sau Mac, chiar daca ele vor suferi modificari.

O operačních systémech Windows a Linux píšu s vášní již od roku 2004 a od roku 2010 jsem se stal fanouškem univerza Apple. V současné době píšu tutoriály pro Mac, iPhone, iPad, Apple Watch, AirPods a další zařízení Apple.

Zanechat komentář