أخبار أبل

يعبر باحثو الأمن عن قلقهم بشأن خطط Apple لمسح صور iCloud ، لكن الممارسة منتشرة بالفعل

الخميس 5 أغسطس ، 2021 ، 2:04 مساءً بتوقيت المحيط الهادي الصيفي ، بقلم جولي كلوفر

تفاح أعلن اليوم مع إطلاق iOS 15 و ايباد 15 ، سيبدأ المسح صور iCloud في الولايات المتحدة للبحث عن مواد الاعتداء الجنسي على الأطفال المعروفة (CSAM) ، مع خطط لإبلاغ النتائج إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).





ميزة سلامة الطفل
قبل قيام Apple بتفصيل خططها ، تسربت أخبار مبادرة CSAM ، وبدأ باحثو الأمن بالفعل في التعبير عن مخاوفهم بشأن كيفية استخدام بروتوكول مسح الصور الجديد من Apple في المستقبل ، كما هو مذكور في الأوقات المالية .

تستخدم Apple نظام 'NeuralHash' لمقارنة صور CSAM المعروفة بالصور الموجودة على المستخدم ايفون قبل تحميلها على iCloud. إذا كان هناك تطابق ، يتم تحميل تلك الصورة بإيصال أمان مشفر ، وعند حد معين ، يتم إجراء مراجعة للتحقق مما إذا كان الشخص لديه CSAM على أجهزته.



كيفية البحث عن آخر موقع لأجهزة airpods

في الوقت الحالي ، تستخدم Apple تقنية المسح الضوئي للصور والمطابقة للبحث عن إساءة معاملة الأطفال ، لكن الباحثين قلقون من أنه في المستقبل ، يمكن تكييفها للبحث عن أنواع أخرى من الصور التي تثير القلق ، مثل اللافتات المناهضة للحكومة في الاحتجاجات.

في سلسلة تغريدات جون هوبكنز الباحث في التشفير ماثيو جرين قال إن فحص CSAM هو 'فكرة سيئة حقًا' لأنه في المستقبل ، يمكن أن يتوسع ليشمل مسح الصور المشفرة من طرف إلى طرف بدلاً من مجرد المحتوى الذي تم تحميله إلى & zwnj؛ iCloud & zwnj ؛. للأطفال ، أبل يكون تنفيذ ميزة مسح منفصلة تبحث عن المحتوى الجنسي الصريح مباشرة في iMessages ، والتي يتم تشفيرها من طرف إلى طرف.

أثار Green أيضًا مخاوف بشأن التجزئة التي تخطط Apple لاستخدامها لأنه من المحتمل أن تكون هناك 'تصادمات' ، حيث يرسل شخص ما ملفًا غير ضار يشاركه تجزئة مع CSAM ويمكن أن ينتج عنه علامة خاطئة.

تقول Apple من جانبها أن تقنية المسح لديها 'مستوى عالٍ للغاية من الدقة' للتأكد من عدم وضع علامة على الحسابات بشكل غير صحيح ، وتتم مراجعة التقارير يدويًا قبل & zwnj؛ iCloud & zwnj؛ تم تعطيل الحساب ويتم إرسال تقرير إلى NCMEC.

يعتقد جرين أن تطبيق Apple سوف يدفع شركات التكنولوجيا الأخرى إلى تبني تقنيات مماثلة. وكتب 'سيؤدي هذا إلى كسر السد'. 'الحكومات ستطالب به من الجميع'. قارن التكنولوجيا بـ 'الأدوات التي استخدمتها الأنظمة القمعية'.


قال الباحث الأمني ​​Alec Muffett ، الذي عمل سابقًا في Facebook ، إن قرار Apple بتنفيذ هذا النوع من مسح الصور كان 'خطوة ضخمة وتراجعًا للخصوصية الفردية'. وقال: 'أبل تتراجع عن الخصوصية لتمكين عام 1984'.

قال روس أندرسون ، أستاذ الهندسة الأمنية في جامعة كامبريدج ، إن الأمر وصفها بـ 'فكرة مروعة للغاية' يمكن أن تؤدي إلى 'مراقبة جماعية موزعة' للأجهزة.

كما أشار الكثيرون على Twitter ، فإن العديد من شركات التكنولوجيا تقوم بالفعل بمسح الصور بحثًا عن CSAM. تستخدم Google و Twitter و Microsoft و Facebook وغيرها طرق تجزئة الصور للبحث عن الصور المعروفة لإساءة معاملة الأطفال والإبلاغ عنها.


ومن الجدير بالذكر أيضًا أن شركة آبل كانت كذلك بالفعل فحص بعض المحتوى لصور الاعتداء على الأطفال قبل إطلاق مبادرة CSAM الجديدة. في عام 2020 ، قالت جين هورفاث ، كبيرة مسؤولي الخصوصية في شركة Apple ، إن شركة Apple استخدمت تقنية الفحص للبحث عن صور غير قانونية ، ثم قامت بتعطيل الحسابات إذا تم اكتشاف دليل على وجود CSAM.

أجهزة mac os big sur المدعومة

آبل في عام 2019 تحديث سياسات الخصوصية الخاصة به للإشارة إلى أنه سيفحص المحتوى الذي تم تحميله بحثًا عن 'محتوى غير قانوني محتمل ، بما في ذلك مواد الاستغلال الجنسي للأطفال' ، لذا فإن إعلانات اليوم ليست جديدة تمامًا.

ملاحظة: نظرًا للطبيعة السياسية أو الاجتماعية للمناقشة المتعلقة بهذا الموضوع ، يقع موضوع المناقشة في موقعنا الأخبار السياسية المنتدى. نرحب بجميع أعضاء المنتدى وزوار الموقع لقراءة الموضوع ومتابعته ، ولكن النشر يقتصر على أعضاء المنتدى الذين لديهم ما لا يقل عن 100 مشاركة.

العلامات: خصوصية Apple، ميزات سلامة الأطفال من Apple