אפל תסרוק את iCloud לאיתור תמונות המכילות אלימות כלפי ילדים.

תמונה של המחבר
התגנבות

ידוע שאפל דואגת מאוד לחיסיון הנתונים שעוברים דרך המכשירים במערכת האקולוגית ושהם מוגנים היטב מעיניים סקרניות. עם זאת, זה לא אומר שמשתמשים לא חייבים לציית לכללים הקשורים לאתיקה, מוסר ולמה לא, אנושיות.

אפל הודיעה כי בקרוב תשחרר טכנולוגיה המסוגלת לסרוק את כל התמונות המאוחסנות על ידי משתמשים ב- icloud ולזהות תמונות המכילות התעללות מינית בילדים. חומר להתעללות מינית בילדים (CSAM).
טכנולוגיה זו תושק על ידי אפל לקראת סוף השנה הנוכחית, ככל הנראה בגרסת פיילוט, למספר מצומצם של משתמשים.

אם אתם שואלים את עצמכם "היכן סודיות הנתונים?", גלו שכל מה שאנו מקבלים הוא תוכן סרטונים/תמונות זה נעשה באמצעות פרוטוקול מוצפן. באותו אופן, אחסון הנתונים ב-iCloud מוצפן, אך הספקים של שירותים כאלה מחזיקים במפתח הצפנת הנתונים. כאן אנחנו לא מדברים רק על אפל. מיקרוסופט, גוגל ושירותי אחסון נתונים בענן אחרים עושים את אותו הדבר.

ניתן לפענח ולאמת את הנתונים המאוחסנים אם הם מתבקשים בהליך משפטי או אם הם מפרים חוקים באופן בוטה. כמו אלה הנוגעות למעשי אלימות נגד ילדים ונשים.

כדי לשמור על פרטיות המשתמש, החברה מסתמכת על טכנולוגיה חדשה, הנקראת NeuralHash, אשר תסרוק תמונות iCloud ותזהה את אלו המכילות אלימות כלפי ילדים, על ידי השוואה שלהן לתמונות אחרות במסד נתונים.
זה דומה במקצת לזיהוי פנים או זיהוי מושכל של חפצים, חיות ואלמנטים אחרים.

הטכנולוגיה תוכל לסרוק ולאמת את התמונות שצולמו או מועברות דרך מכשיר אייפון, אייפד או מק, גם אם הן יעברו שינויים.

אני כותב את התשוקה מאז 2004 על מערכות הפעלה של Windows ו- Linux, ומשנת 2010 להפוך למעריץ של Apple Universe. נכון לעכשיו, אני כותב הדרכות עבור מק, אייפון, אייפד, Apple Watch, AirPods ומכשירי Apple אחרים.

השאירו תגובה