أخبار أبل

تقدم Apple ميزات جديدة لسلامة الأطفال ، بما في ذلك فحص مكتبات صور المستخدمين بحثًا عن مواد الاعتداء الجنسي المعروفة

الخميس 5 أغسطس ، 2021 ، 1:00 مساءً بتوقيت المحيط الهادئ الصيفي بواسطة جو روسينول

أبل اليوم معاينة ميزات سلامة الأطفال الجديدة التي ستصل إلى منصاتها مع تحديثات البرامج في وقت لاحق من هذا العام. قالت الشركة إن الميزات ستكون متاحة في الولايات المتحدة فقط عند الإطلاق وسيتم توسيعها إلى مناطق أخرى بمرور الوقت.





ميزة سلامة الاتصالات فون

سلامة الاتصالات

أولاً ، سيحصل تطبيق الرسائل على iPhone و iPad و Mac على ميزة جديدة لسلامة الاتصالات لتحذير الأطفال وأولياء أمورهم عند تلقي أو إرسال صور جنسية صريحة. قالت شركة آبل إن تطبيق الرسائل سيستخدم التعلم الآلي على الجهاز لتحليل مرفقات الصور ، وإذا تم تحديد الصورة على أنها جنسية فاضحة ، فسيتم تعتيم الصورة تلقائيًا وسيتم تحذير الطفل.



كيفية شحن علبة airpod

عندما يحاول الطفل عرض صورة تم الإبلاغ عنها على أنها حساسة في تطبيق الرسائل ، فسيتم تنبيهه إلى أن الصورة قد تحتوي على أجزاء خاصة من الجسم ، وأن الصورة قد تكون مؤذية. اعتمادًا على عمر الطفل ، سيكون هناك أيضًا خيار للآباء لتلقي إشعار إذا استمر طفلهم في عرض الصورة الحساسة أو إذا اختاروا إرسال صورة جنسية صريحة إلى جهة اتصال أخرى بعد تحذيرهم.

قالت Apple إن ميزة سلامة الاتصالات الجديدة ستأتي في تحديثات iOS 15 و iPadOS 15 و macOS Monterey في وقت لاحق من هذا العام للحسابات التي تم إعدادها كعائلات في iCloud. ضمنت Apple أن محادثات iMessage ستظل محمية بالتشفير من طرف إلى طرف ، مما يجعل الاتصالات الخاصة غير قابلة للقراءة بواسطة Apple.

مسح الصور لمواد الاعتداء الجنسي على الأطفال (CSAM)

ثانيًا ، بدءًا من نظام التشغيل iOS 15 و iPadOS 15 هذا العام ، ستتمكن Apple من اكتشاف صور مواد الاعتداء الجنسي على الأطفال (CSAM) المخزنة في iCloud Photos ، مما سيمكن Apple من الإبلاغ عن هذه الحالات إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ، وهي منظمة غير ربحية تعمل بالتعاون مع وكالات إنفاذ القانون الأمريكية.

قالت شركة Apple إن طريقتها في اكتشاف CSAM المعروفة مصممة مع مراعاة خصوصية المستخدم. بدلاً من مسح الصور في السحابة ، قالت Apple إن النظام سيجري مطابقة على الجهاز مقابل قاعدة بيانات معروفة بتجزئة صور CSAM المقدمة من NCMEC وغيرها من منظمات سلامة الأطفال. قالت Apple إنها ستحول قاعدة البيانات هذه إلى مجموعة غير قابلة للقراءة من التجزئات المخزنة بأمان على أجهزة المستخدمين.

تقوم تقنية التجزئة ، المسماة NeuralHash ، بتحليل الصورة وتحويلها إلى رقم فريد خاص بتلك الصورة ، وفقًا لشركة Apple.

قالت Apple في ورقة بيضاء جديدة بعنوان 'الحماية الموسعة للأطفال': 'الغرض الرئيسي من التجزئة هو التأكد من أن الصور المتطابقة والمتشابهة بصريًا تؤدي إلى نفس التجزئة ، بينما تؤدي الصور المختلفة عن بعضها البعض إلى تجزئات مختلفة'. 'على سبيل المثال ، الصورة التي تم اقتصاصها قليلاً أو تغيير حجمها أو تحويلها من اللون إلى الأبيض والأسود يتم التعامل معها بشكل مطابق للأصل ، ولها نفس التجزئة.'

مخطط تدفق التفاح CSAM
قبل تخزين الصورة في iCloud Photos ، قالت شركة Apple إن عملية المطابقة على الجهاز يتم إجراؤها لتلك الصورة مقابل المجموعة غير القابلة للقراءة من تجزئات CSAM المعروفة. في حالة وجود تطابق ، يقوم الجهاز بإنشاء قسيمة أمان مشفرة. يتم تحميل هذا الإيصال إلى iCloud Photos مع الصورة ، وبمجرد تجاوز حد غير معلوم من المطابقات ، تستطيع Apple تفسير محتويات قسائم مباريات CSAM. تقوم Apple بعد ذلك بمراجعة كل تقرير يدويًا للتأكد من وجود تطابق وتعطيل حساب المستخدم على iCloud وإرسال تقرير إلى NCMEC. لا تشارك Apple ما هو الحد الأدنى المحدد لها ، ولكنها تضمن 'مستوى عالٍ للغاية من الدقة' بحيث لا يتم وضع علامة على الحسابات بشكل غير صحيح.

قالت شركة Apple إن طريقتها في اكتشاف CSAM المعروفة توفر `` مزايا خصوصية كبيرة '' على التقنيات الحالية:

• يعد هذا النظام طريقة فعالة لتحديد CSAM المعروفة المخزنة في حسابات صور iCloud مع حماية خصوصية المستخدم.
• كجزء من العملية ، لا يمكن للمستخدمين أيضًا معرفة أي شيء عن مجموعة صور CSAM المعروفة المستخدمة للمطابقة. هذا يحمي محتويات قاعدة البيانات من الاستخدام الضار.
• النظام دقيق للغاية ، مع معدل خطأ منخفض للغاية أقل من واحد من كل تريليون حساب في السنة.
• النظام أكثر حفاظًا على الخصوصية بشكل ملحوظ من المسح المستند إلى السحابة ، لأنه يُبلغ فقط المستخدمين الذين لديهم مجموعة CSAM معروفة مخزنة في صور iCloud.

التكنولوجيا الأساسية وراء نظام Apple معقدة للغاية وقد نشرت ملف ملخص تقني بمزيد من التفاصيل.

'الحماية الموسعة من Apple للأطفال هي عامل تغيير في اللعبة. قال جون كلارك ، الرئيس والمدير التنفيذي للمركز الوطني للمفقودين: `` مع وجود الكثير من الأشخاص الذين يستخدمون منتجات Apple ، فإن تدابير السلامة الجديدة هذه لديها إمكانات منقذة للحياة للأطفال الذين يتم إغرائهم عبر الإنترنت والذين يتم تداول صورهم المروعة في مواد الاعتداء الجنسي على الأطفال. & الأطفال المستغَلين. في المركز الوطني للأطفال المفقودين والمستغَلين ، نعلم أنه لا يمكن مكافحة هذه الجريمة إلا إذا كنا ثابتين في تفانينا في حماية الأطفال. لا يمكننا القيام بذلك إلا لأن شركاء التكنولوجيا ، مثل Apple ، يتقدمون ويجعلون تفانيهم معروفًا. الحقيقة هي أن الخصوصية وحماية الطفل يمكن أن يتعايشا. نشيد بشركة Apple ونتطلع إلى العمل معًا لجعل هذا العالم مكانًا أكثر أمانًا للأطفال.

إرشادات CSAM الموسعة في Siri والبحث

اي فون كسام سيري
ثالثًا ، قالت Apple إنها ستوسع التوجيه في Siri و Spotlight Search عبر الأجهزة من خلال توفير موارد إضافية لمساعدة الأطفال والآباء على البقاء بأمان عبر الإنترنت والحصول على المساعدة في المواقف غير الآمنة. على سبيل المثال ، سيتم توجيه المستخدمين الذين يسألون Siri عن كيفية الإبلاغ عن CSAM أو استغلال الأطفال إلى الموارد الخاصة بمكان وكيفية تقديم تقرير.

تأتي تحديثات Siri و Search في وقت لاحق من هذا العام في تحديث لنظام iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey ، وفقًا لشركة Apple.

ملاحظة: نظرًا للطبيعة السياسية أو الاجتماعية للمناقشة المتعلقة بهذا الموضوع ، يقع موضوع المناقشة في موقعنا الأخبار السياسية المنتدى. نرحب بجميع أعضاء المنتدى وزوار الموقع لقراءة الموضوع ومتابعته ، ولكن النشر يقتصر على أعضاء المنتدى الذين لديهم ما لا يقل عن 100 مشاركة.

العلامات: خصوصية Apple، ميزات سلامة الأطفال من Apple