إن تدابير Apple الجديدة لمحاربة الأطفال النفسيين أثارت دروعًا ضخمة. عن حق.
مع وصول iOS 15 و Macos Monterey ، تبدأ Apple في الانتشارحماية جديدة لمكافحة الاعتداء الجنسي على القاصرين. حسن النية التي تثير للأسف العديد من الأسئلة لتكون في نهاية المطاف نتائج قليلة.
أداتان مختلفتان للغاية
ما تسميه أبلاكتشاف CSAM(صبمادة الاعتداء الجنسي على الأطفال) ينقسم فعلا إلى أداتين متميزين. يتعلق الأول بتطبيق الرسائل ويسمح لك بمسح جميع الصور التي تمر عبرها من أجل تحديد ، بفضل الذكاء الاصطناعي ، المحتوى الجنسي الصريح المرسلة أو المستلمة. في حالة وجود نتيجة إيجابية ، يتم وضوح الصورة ثم يتم إخطار الطفل.
يحدث كل هذا مباشرة على iPhone أو iPad أو Mac وبالتالي لا يتم إرسال صورة إلى Apple. بالإضافة إلى ذلك ، يتعلق هذا فقط بأجهزة الأطفال داخل حساب عائلي ولا يتم إخطار الآباء إلا إذا كان الطفل يبلغ من العمر 12 عامًا أو أقل. من سن 13 ، يمكن للطفل بالتالي أن يقرر النظر إلى الصور المعنية إذا كان يرغب ، وهذا في كل السلطة التقديرية.
الفكرة مثيرة للاهتمام إلى حد ما للحفاظ على عيون العفار لرؤوسنا الأشقر الصغيرة ، ولكن لا يزال يتطلب أن يمر الطفل بالرسائل وليس رسائل أخرى (Whatsapp ، Telegram ، Signal ، Messenger...) ولا يحمي الأطفال من عمر 13 عامًا يمكنهم الخضوع للخطابات الجائعة. بالإضافة إلى ذلك ، يزعم بعض خبراء الأمن أن هذا هجوم على وعد الترميز النهائي للرسائل ، حيث يتم إجراء التحكم في المحتوى في وقت في هذه العملية.
لكنها الأداة الثانية التي تثير الأسئلة حقًا. تقوم هذه الصورة بمسح جميع الصور الواردة على iCloud لمقارنتها بقاعدة بيانات للمحتوى الإباحية للأطفال (المقدمة من قبلالمركز الوطني للأطفال المفقودين والمستغلين) والإبلاغ عن السلطات في حالة مراسلات مثبتة. تضمن Apple الحفاظ على أمان البيانات حيث يتم مشاركة الصور التي تنتهك القانون فقط.
موجة من عدم الرضا
بعد هذا الإعلان ، تم رفع العديد من الأصوات ضد ما يعتبره البعض ضررًا للخصوصية. تيم سويني ، مؤسسمن الألعاب الملحمية التي لديها الكثير لإلقاء اللوم على Appleعلى سبيل المثال تأهل هذا باسم "برامج التجسس الحكومية»، مثلما ويل كاثكارت ، مسؤولة عنWhatsappالذين انتهزوا الفرصة لضمان أن تطبيق المراسلة الخاص به لن يعتمد أبدًا مثل هذا النظام ، أو مؤسسة Frontier Electronic.
لنكن واضحين: إن الانتهاكات الجنسية على القاصرين مروعة ويتم إدانتها من جميع الجوانب ، ولكن هناك طرق أخرى لمحاربة هذه الممارسات من الصندوق الأسود الغامق. هذا هو اللوم الرئيسي ضد طريقة Apple. قاعدة البيانات المستخدمة من قبل Apple ، على الرغم من ذلكالتجزئة(الذي أصبح غير مقروء بواسطة خوارزمية) ، يحتوي على محتوى غير قانوني ، مما يمنع أي شخص من محاولة فك رموزه من أجل التحقق من محتواه. من الناحية النظرية ، يمكن أن تحتوي أيضًا على عناصر أخرى.
في معركة كاملة ضد التسريبات، على سبيل المثال ، يمكن لـ Apple دمج الصور المسروقة لمنتجاتها الخاصة في هذا الكتالوج من أجل العودة إلى المصدر. وبالمثل ، يمكن للحكومة إجبار شركة Apple على إضافتها إلى هذه القائمة عناصر أخرى. مات بلايز ، باحث الكمبيوتر ، يؤكد أنه سيذهب الآن "هناك ضغط هائل على Apple من جانب حكومات العالم لتوسيع قدرة الكشف هذه إلى أنواع أخرى من "المحتوى السيئ».
فيوثيقة تهدف إلى توضيح الأشياءتعد Apple برفض كل هذه الطلبات وتشير إلى أن قاعدة البيانات هذه مدمجة في النظام لتجنب حقن ضار من الصور من أجل تحديد محتوى آخر ... ولكن سيكون من الضروري تصديق شركة Cupertino على Word. علاوة على ذلك،قضية بيغاسوسلقد أظهر أنه لا تزال هناك عيوب أمنية لاستغلال نقاط الضعف.
حماية محدودة
لذلك لا يخلو هذا التكامل من خطر حريات الفردية عبر الإنترنت ، وللأسف قد يكون له تأثير منخفض للغاية على مكافحة المواد الإباحية للأطفال. إن أداء هذه الأدوات المفصلة ، سيكون الأكثر ضارة قادرًا على الاهتمام بالالتفاف لتحقيق نهاياتها. لن يتم تحليل رابط بسيط تم إرساله بواسطة تطبيق الرسائل على سبيل المثال بواسطة أداة Apple ويمكن أن يؤدي إلى نفس النوع من المحتوى.
من جانبه ، يشير Will Cathcart إلى أن WhatsApp أبلغ عن 400000 حالة في عام 2020 فيالمركز الوطني للأطفال المفقودين والمستغلين، استنادًا إلى تقارير المستخدم ، وأن أكثر من 300000 حساب يتم نفيها كل شهر. أرقام مخيفة بعض الشيء ، عليك أن تعترف بذلك ...
انضم إلينا من 5 إلى 7 مساءً ، كل يوم الأربعاء ، للبرنامجفتحتنتجهاfrandroidETNumerama! أخبار التكنولوجيا والمقابلات والنصائح والتحليلات ... نلتقيعش على نشلأو في إعادةعلى يوتيوب!