تفاح أعلن اليوم مع إطلاق iOS 15 و ايباد 15 ، سيبدأ المسح صور iCloud في الولايات المتحدة للبحث عن مواد الاعتداء الجنسي على الأطفال المعروفة (CSAM) ، مع خطط لإبلاغ النتائج إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).
قبل قيام Apple بتفصيل خططها ، تسربت أخبار مبادرة CSAM ، وبدأ باحثو الأمن بالفعل في التعبير عن مخاوفهم بشأن كيفية استخدام بروتوكول مسح الصور الجديد من Apple في المستقبل ، كما هو مذكور في الأوقات المالية .
تستخدم Apple نظام 'NeuralHash' لمقارنة صور CSAM المعروفة بالصور الموجودة على المستخدم ايفون قبل تحميلها على iCloud. إذا كان هناك تطابق ، يتم تحميل تلك الصورة بإيصال أمان مشفر ، وعند حد معين ، يتم إجراء مراجعة للتحقق مما إذا كان الشخص لديه CSAM على أجهزته.
كيفية البحث عن آخر موقع لأجهزة airpods
في الوقت الحالي ، تستخدم Apple تقنية المسح الضوئي للصور والمطابقة للبحث عن إساءة معاملة الأطفال ، لكن الباحثين قلقون من أنه في المستقبل ، يمكن تكييفها للبحث عن أنواع أخرى من الصور التي تثير القلق ، مثل اللافتات المناهضة للحكومة في الاحتجاجات.
في سلسلة تغريدات جون هوبكنز الباحث في التشفير ماثيو جرين قال إن فحص CSAM هو 'فكرة سيئة حقًا' لأنه في المستقبل ، يمكن أن يتوسع ليشمل مسح الصور المشفرة من طرف إلى طرف بدلاً من مجرد المحتوى الذي تم تحميله إلى & zwnj؛ iCloud & zwnj ؛. للأطفال ، أبل يكون تنفيذ ميزة مسح منفصلة تبحث عن المحتوى الجنسي الصريح مباشرة في iMessages ، والتي يتم تشفيرها من طرف إلى طرف.
أثار Green أيضًا مخاوف بشأن التجزئة التي تخطط Apple لاستخدامها لأنه من المحتمل أن تكون هناك 'تصادمات' ، حيث يرسل شخص ما ملفًا غير ضار يشاركه تجزئة مع CSAM ويمكن أن ينتج عنه علامة خاطئة.
تقول Apple من جانبها أن تقنية المسح لديها 'مستوى عالٍ للغاية من الدقة' للتأكد من عدم وضع علامة على الحسابات بشكل غير صحيح ، وتتم مراجعة التقارير يدويًا قبل & zwnj؛ iCloud & zwnj؛ تم تعطيل الحساب ويتم إرسال تقرير إلى NCMEC.
يعتقد جرين أن تطبيق Apple سوف يدفع شركات التكنولوجيا الأخرى إلى تبني تقنيات مماثلة. وكتب 'سيؤدي هذا إلى كسر السد'. 'الحكومات ستطالب به من الجميع'. قارن التكنولوجيا بـ 'الأدوات التي استخدمتها الأنظمة القمعية'.
هذه أشياء سيئة. لا أريد بشكل خاص أن أكون في جانب المواد الإباحية للأطفال ولست إرهابيًا. لكن المشكلة تكمن في أن التشفير أداة قوية توفر الخصوصية ، ولا يمكنك حقًا التمتع بخصوصية قوية أثناء مراقبة كل صورة يرسلها أي شخص. - ماثيو جرين (matthew_d_green) 5 أغسطس 2021
قال الباحث الأمني Alec Muffett ، الذي عمل سابقًا في Facebook ، إن قرار Apple بتنفيذ هذا النوع من مسح الصور كان 'خطوة ضخمة وتراجعًا للخصوصية الفردية'. وقال: 'أبل تتراجع عن الخصوصية لتمكين عام 1984'.
قال روس أندرسون ، أستاذ الهندسة الأمنية في جامعة كامبريدج ، إن الأمر وصفها بـ 'فكرة مروعة للغاية' يمكن أن تؤدي إلى 'مراقبة جماعية موزعة' للأجهزة.
كما أشار الكثيرون على Twitter ، فإن العديد من شركات التكنولوجيا تقوم بالفعل بمسح الصور بحثًا عن CSAM. تستخدم Google و Twitter و Microsoft و Facebook وغيرها طرق تجزئة الصور للبحث عن الصور المعروفة لإساءة معاملة الأطفال والإبلاغ عنها.
وإذا كنت تتساءل عما إذا كان Google يمسح الصور بحثًا عن صور إساءة معاملة الأطفال ، فقد أجبت أنه في القصة التي كتبتها قبل ثماني سنوات: لقد كان يفعل ذلك ** منذ عام 2008 **. ربما يجلس الجميع ويضعون قبعاتهم مرة أخرى. pic.twitter.com/ruJ4Z8SceY - تشارلز آرثر (@ تشارليسارثر) 5 أغسطس 2021
ومن الجدير بالذكر أيضًا أن شركة آبل كانت كذلك بالفعل فحص بعض المحتوى لصور الاعتداء على الأطفال قبل إطلاق مبادرة CSAM الجديدة. في عام 2020 ، قالت جين هورفاث ، كبيرة مسؤولي الخصوصية في شركة Apple ، إن شركة Apple استخدمت تقنية الفحص للبحث عن صور غير قانونية ، ثم قامت بتعطيل الحسابات إذا تم اكتشاف دليل على وجود CSAM.
أجهزة mac os big sur المدعومة
آبل في عام 2019 تحديث سياسات الخصوصية الخاصة به للإشارة إلى أنه سيفحص المحتوى الذي تم تحميله بحثًا عن 'محتوى غير قانوني محتمل ، بما في ذلك مواد الاستغلال الجنسي للأطفال' ، لذا فإن إعلانات اليوم ليست جديدة تمامًا.
ملاحظة: نظرًا للطبيعة السياسية أو الاجتماعية للمناقشة المتعلقة بهذا الموضوع ، يقع موضوع المناقشة في موقعنا الأخبار السياسية المنتدى. نرحب بجميع أعضاء المنتدى وزوار الموقع لقراءة الموضوع ومتابعته ، ولكن النشر يقتصر على أعضاء المنتدى الذين لديهم ما لا يقل عن 100 مشاركة.
العلامات: خصوصية Apple، ميزات سلامة الأطفال من Apple
المشاركات الشعبية