أخبار أبل

يقر كريج فيديريغي بالارتباك حول ميزات أمان الأطفال في Apple ويشرح تفاصيل جديدة حول الإجراءات الوقائية

الجمعة ، 13 أغسطس 2021 ، الساعة 7:33 صباحًا بتوقيت المحيط الهادئ الصيفي ، بقلم هارتلي تشارلتون

دافع نائب الرئيس الأول لهندسة البرمجيات في شركة Apple ، كريج فيديريغي ، اليوم عن مخطط الشركة المثير للجدل ميزات سلامة الأطفال في مقابلة مهمة مع صحيفة وول ستريت جورنال ، كاشفة عن عدد من التفاصيل الجديدة حول الضمانات المضمنة في نظام Apple لفحص مكتبات صور المستخدمين لمواد الاعتداء الجنسي على الأطفال (CSAM).





خصوصية كريج WWDC 2021
اعترف Federighi أن أبل تعاملت الأسبوع الماضي إعلان من الميزتين الجديدتين ضعيفتين ، فيما يتعلق باكتشاف المحتوى الصريح في الرسائل للأطفال ومحتوى CSAM المخزن في صور iCloud المكتبات ، وأقروا بالارتباك المنتشر حول الأدوات:

من الواضح حقًا أن الكثير من الرسائل اختلطت بشكل سيئ للغاية فيما يتعلق بكيفية فهم الأشياء. نتمنى أن يكون هذا أكثر وضوحًا للجميع لأننا نشعر بإيجابية كبيرة وقوة بشأن ما نقوم به.



هل يعمل iOS 14 على iphone 6s

[...]

بعد فوات الأوان ، كان تقديم هاتين الميزتين في نفس الوقت وصفة لهذا النوع من الالتباس. من خلال إطلاقها في نفس الوقت ، قام الأشخاص بربطهم تقنيًا وأصبحوا خائفين للغاية: ما الذي يحدث مع رسائلي؟ الجواب ... لا شيء يحدث مع رسائلك.

تعني ميزة سلامة الاتصالات أنه إذا أرسل الأطفال أو استقبلوا صورًا فاضحة عبر iMessage ، فسيتم تحذيرهم قبل مشاهدتها ، وستكون الصورة غير واضحة ، وسيكون هناك خيار لتنبيه والديهم. من ناحية أخرى ، يحاول فحص CSAM مطابقة صور المستخدمين مع الصور المجزأة لـ CSAM المعروفة قبل تحميلها على iCloud. ستخضع الحسابات التي تم اكتشاف CSAM لها لمراجعة يدوية من قبل Apple وقد يتم الإبلاغ عنها إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).

كيف تغير ايقونات التطبيقات على الايفون

لقد تعرضت الميزات الجديدة لقدر كبير من الانتقادات من المستخدمين ، باحثو الأمن ، ال مؤسسة الحدود الإلكترونية (EFF) وإدوارد سنودن و رئيس الأمن السابق في Facebook وحتى موظفي Apple .

وسط هذه الانتقادات ، تناول Federighi أحد مجالات الاهتمام الرئيسية ، مؤكداً أن نظام Apple سيكون محميًا من أن يتم استغلاله من قبل الحكومات أو الجهات الخارجية الأخرى مع 'مستويات متعددة من قابلية التدقيق'.


كشف Federighi أيضًا عن عدد من التفاصيل الجديدة حول ضمانات النظام ، مثل حقيقة أن المستخدم سيحتاج إلى مقابلة حوالي 30 مباراة لمحتوى CSAM في الصور المكتبة قبل تنبيه Apple ، وعندئذٍ ستؤكد ما إذا كانت هذه الصور تبدو نسخًا أصلية من CSAM.

إذا وفقط إذا استوفيت حدًا لشيء ما بترتيب 30 صورة إباحية معروفة للأطفال مطابقة ، فعندئذ فقط تعرف Apple أي شيء عن حسابك وتعرف أي شيء عن تلك الصور ، وفي هذه المرحلة ، تعرف فقط عن تلك الصور ، وليس عنها أي من صورك الأخرى. هذا لا يعني بعض التحليل لأن لديك صورة لطفلك في حوض الاستحمام؟ أو ، في هذا الصدد ، هل لديك صورة لبعض المواد الإباحية من أي نوع آخر؟ هذا هو المطابقة حرفيًا فقط على البصمات الدقيقة لصور إباحية معينة معروفة للأطفال.

كما أشار إلى الميزة الأمنية المتمثلة في وضع عملية المطابقة على ايفون بشكل مباشر ، بدلاً من حدوثه على خوادم & zwnj؛ iCloud & zwnj؛

نظرًا لأنه على [الهاتف] ، يستطيع الباحثون الأمنيون باستمرار فحص ما يحدث في برنامج [الهاتف] من Apple. لذلك إذا تم إجراء أي تغييرات من شأنها توسيع نطاق هذا بطريقة ما - بطريقة التزمنا بعدم القيام بها - فهناك إمكانية للتحقق ، يمكنهم اكتشاف ما يحدث.

عندما سئل عما إذا كانت قاعدة بيانات الصور المستخدمة لمطابقة محتوى CSAM على أجهزة المستخدمين يمكن اختراقها من خلال إدراج مواد أخرى ، مثل المحتوى السياسي في مناطق معينة ، أوضح Federighi أن قاعدة البيانات مبنية من صور CSAM معروفة من العديد من منظمات سلامة الأطفال ، مع وجود اثنين على الأقل 'في ولايات قضائية متميزة' ، للحماية من إساءة استخدام النظام.

كيفية البحث عن التطبيقات المحذوفة مؤخرًا على iPhone

ستتمكن منظمات حماية الطفل هذه ، بالإضافة إلى مدقق حسابات مستقل ، من التحقق من أن قاعدة بيانات الصور تتكون فقط من محتوى من تلك الكيانات ، وفقًا لـ Federighi.

تعد مقابلة Federighi من بين أكبر ردود العلاقات العامة من Apple حتى الآن بعد الاستجابة العامة المختلطة للإعلان عن ميزات سلامة الطفل ، لكن الشركة حاولت أيضًا مرارًا وتكرارًا معالجة مخاوف المستخدمين و نشر التعليمات ومعالجة المخاوف بشكل مباشر في مقابلات مع وسائل الإعلام .

العلامات: وول ستريت جورنال ، كريج فيديريغي ، ميزات سلامة الأطفال من Apple