أخبار أبل

يحث الباحثون الجامعيون الذين قاموا ببناء نظام المسح CSAM شركة Apple على عدم استخدام التكنولوجيا 'الخطرة'

الجمعة 20 أغسطس 2021 6:48 صباحًا بتوقيت المحيط الهادئ الصيفي بقلم سامي فتحي

يدق باحثون جامعيون مرموقون ناقوس الخطر بشأن التكنولوجيا وراء خطط Apple للمسح الضوئي ايفون مكتبات الصور الخاصة بالمستخدمين لـ CSAM ، أو مواد الاعتداء الجنسي على الأطفال ، ووصف التكنولوجيا بأنها 'خطيرة'.





خصوصية التفاح
جوناناث ماير ، الأستاذ المساعد لعلوم الكمبيوتر والشؤون العامة بجامعة برينستون ، وكذلك أنوناي كولشريسثا ، الباحث في مركز جامعة برينستون لسياسة تكنولوجيا المعلومات ، وكلاهما كتب افتتاحية ل واشنطن بوست ، مع تحديد تجاربهم في بناء تقنية الكشف عن الصور.

بدأ الباحثون مشروعًا منذ عامين لتحديد هوية CSAM في خدمات الإنترنت المشفرة من طرف إلى طرف. لاحظ الباحثون أنه بالنظر إلى مجالهم ، فإنهم 'يعرفون قيمة التشفير من طرف إلى طرف ، والذي يحمي البيانات من وصول طرف ثالث'. ويقولون إن هذا القلق هو ما يخيفهم من انتشار CSAM على المنصات المشفرة.



هل هناك هاتف آيفون 8 يخرج

قال Mayer و Kulshrestha إنهما يريدان إيجاد حل وسط للموقف: بناء نظام يمكن أن تستخدمه المنصات عبر الإنترنت للعثور على CSAM وحماية التشفير من طرف إلى طرف. لاحظ الباحثون أن الخبراء في هذا المجال شككوا في احتمالية وجود مثل هذا النظام ، لكنهم تمكنوا من بنائه وفي أثناء العملية لاحظوا مشكلة كبيرة.

سعينا لاستكشاف حل وسط محتمل ، حيث يمكن للخدمات عبر الإنترنت تحديد المحتوى الضار مع الحفاظ على التشفير من طرف إلى طرف. كان المفهوم واضحًا: إذا شارك شخص ما مادة تطابق قاعدة بيانات لمحتوى ضار معروف ، فسيتم تنبيه الخدمة. إذا شارك شخص محتوى بريئًا ، فلن تتعلم الخدمة شيئًا. لا يمكن للأشخاص قراءة قاعدة البيانات أو معرفة ما إذا كان المحتوى مطابقًا ، لأن هذه المعلومات يمكن أن تكشف عن طرق إنفاذ القانون وتساعد المجرمين على التهرب من الكشف.

جادل المراقبون المطلعون بأن نظامًا مثل نظامنا لم يكن ممكنًا على الإطلاق. بعد العديد من البدايات الخاطئة ، قمنا ببناء نموذج أولي عملي. لكننا واجهنا مشكلة صارخة.

منذ إعلان Apple عن الميزة ، تعرضت الشركة للقصف مع المخاوف أن النظام الكامن وراء اكتشاف CSAM يمكن استخدامه للكشف عن أشكال أخرى من الصور بناءً على طلب الحكومات القمعية. عارضت شركة آبل بشدة مثل هذا الاحتمال ، قائلة إنها سترفض أي طلب من الحكومات.

ومع ذلك ، فإن المخاوف بشأن الآثار المستقبلية للتقنية المستخدمة لاكتشاف CSAM منتشرة على نطاق واسع. قال Mayer و Kulshrestha إن مخاوفهم بشأن كيفية استخدام الحكومات للنظام لاكتشاف المحتوى غير CSAM قد تسببت في 'إزعاجهم'.

كيفية توصيل أجهزة airpods الخاصة بي بجهاز macbook air الخاص بي

يمكن لحكومة أجنبية ، على سبيل المثال ، إجبار خدمة على الأشخاص الذين يشاركون الخطاب السياسي غير المرغوب فيه. هذا ليس افتراضيًا: WeChat ، تطبيق المراسلة الصيني الشهير ، يستخدم بالفعل مطابقة المحتوى لتحديد المواد المنشقة. سنت الهند قواعد هذا العام قد تتطلب فحصًا مسبقًا للمحتوى الذي ينتقد سياسة الحكومة. فرضت روسيا مؤخرًا غرامة على Google و Facebook و Twitter لعدم إزالة مواد الاحتجاج المؤيدة للديمقراطية.

لقد اكتشفنا أوجه قصور أخرى. قد يكون لعملية مطابقة المحتوى نتائج إيجابية خاطئة ، ويمكن للمستخدمين الخبثاء التلاعب بالنظام لإخضاع المستخدمين الأبرياء للتدقيق.

لقد انزعجنا للغاية لدرجة أننا اتخذنا خطوة لم نرها من قبل في أدبيات علوم الكمبيوتر: لقد حذرنا من تصميم نظامنا ، وحثنا على إجراء مزيد من البحث حول كيفية التخفيف من الجوانب السلبية الخطيرة ...

استمرت Apple في معالجة مخاوف المستخدمين بشأن خططها ، نشر وثائق إضافية و صفحة الأسئلة الشائعة . لا تزال Apple تعتقد أن نظام اكتشاف CSAM الخاص بها ، والذي سيحدث على جهاز المستخدم ، يتوافق مع قيم الخصوصية طويلة الأمد.

العلامات: خصوصية Apple ، WashingtonPost.com ، ميزات أمان الأطفال من Apple