خصت Google بتجاوزات نظام الكشف عن المحتوى الجنائي للأطفال

--

يعد الكشف عن الصور ومقاطع الفيديو التي تعرض أعمال الاستغلال الجنسي للأطفال مهمة نبيلة شاركت فيها الشركات التكنولوجية الكبيرة لأكثر من عشر سنوات. ومع ذلك ، فإن تقنيات الكشف الآلي الجديدة أكثر تدخلاً للمستخدمين ، وتخلق خطرًا حقيقيًا من الإيجابيات الكاذبة.

مقال من نيويورك تايمزتشير تقارير بتاريخ 21 أغسطس إلى حكايتين من هذا القبيل يرسل فيها الأب صورة من الأعضاء التناسلية لطفله الصغير إلى طبيب الأطفال لتشخيص إصابته بالعدوى. في خضم جائحة Covid-19 ، تم إجراء الاستشارة عن بُعد. يتم بعد ذلك حفظ الصور ، التي تم التقاطها بهاتف Android ، تلقائيًا في Google Drive ، خدمة التخزين السحابية للشركة. أثناء هذا الإجراء ، يتم تحليل الملفات ويكتشف Google المحتوى غير القانوني. ثم يتم حظر حساب المستخدم وإرسال المعلومات إلى الشرطة.
Google

برأ من قبل الشرطة ، وحظرت جوجل

في كلتا الحالتين ، وبعد التحقيق ، خلصت الشرطة إلى عدم وقوع أي عمل إجرامي وأغلقت الملف. لكن جوجل لم تستعيد الحسابات حتى بعد الاتصال بها. لسوء الحظ ، ومثل العديد من الأشخاص ، اعتمدوا اعتمادًا كبيرًا على أدوات Google: البريد الإلكتروني والتقويمات وتخزين الملفات … وحتى اشتراك الهاتف المحمول لأحدهم ، مع Google fi. اعتادت Google أن تكون شركة خاصة ، ويمكنها إنهاء حساب لأي سبب من الأسباب ، وليس لديهم حقًا أي حق الرجوع اليوم.

يوضح هذان السيناريوهان المشتقات المحتملة لأتمتة أدوات اكتشاف المحتوى غير القانوني. تاريخيًا ، كان النظام المرجعي هو PhotoDNA ، الذي تم إنشاؤه بالاشتراك مع Microsoft وتم نشره في عام 2009.، فهو يعمل عن طريق إنشاء توقيعات لملفات ذات محتوى مسيء للأطفال ، والتي تتم مطابقتها تلقائيًا بعد ذلك مع ملفات المستخدمين. وهذا يجعل من الممكن اكتشاف المحتوى المعروف دون “مشاهدة” ما يفعله الأشخاص فعليًا.

قلة استخدام الأنظمة الآلية

ولكن في عام 2018 ، طورت Google تقنية جديدة تعتمد على تقنيات الذكاء الاصطناعي للقيام بالتعرف التلقائي عن طريق التحليل المرئي. كان الهدف هو أن تكون قادرًا على اكتشاف الصور الجديدة وليس فقط تلك الموجودة بالفعل في قاعدة البيانات. قامت الشركة أيضًا بإتاحة هذه التقنية لبقية النظام البيئي. مبادرة جديرة بالثناء ، ولكن كما نرى لا يمكن الاعتماد عليها بنسبة 100٪. كمرجع ، أصدرت Google 600000 تقرير وألغيت 270.000 حساب بعد اكتشاف محتوى مسيء للأطفال في عام 2021.

إنه يثير مسألة الاعتدال البشري وإمكانية الطعن في قرار يقع بالكامل في إطار نظام آلي وغير شفاف. مشكلة تتجاوز هذه المنطقة المحددة وستستمر في النمو مع زيادة الأتمتة. يمكن أن يؤثر يومًا ما على الاعتراف بجوازات السفر على الحدود ، على سبيل المثال.

الانتهاكات المحتملة للخصوصية

يمكنها أيضًا أن تسأل عن حماية الخصوصية. حاولت شركة Apple تطوير نظام مسح تلقائي للملفات في نفس السياق في عام 2021 وتعرضت لانتقادات شديدة من قبل الخبراء في هذا المجال. إحدى المشكلات المذكورة هي أنه بمجرد الإعداد ، سيكون من السهل جدًا تعديل المعلمات التي يبحث عنها هذا النوع من النظام للعثور على ملفات أخرى. وهذا من شأنه ، على سبيل المثال ، أن يسمح لبعض الدول غير الديمقراطية بتحديد خصومها السياسيين بسهولة أكبر.

في الآونة الأخيرة ، قدمت المفوضية الأوروبية تشريعًا يهدف إلى إجبار مقدمي الرسائل والاستضافة على تثبيت أبواب خلفية في خدماتهم ، مرة أخرى تحت ستار مكافحة استغلال الأطفال في المواد الإباحية. مشروع أكثر إثارة للجدل لأنه يتضمن قراءة جميع الرسائل من قبل الحكومات. كما انتقدها المركز الأوروبي بشدة .

غالبًا ما يتم طرح مبدأ البيدكرايم ، مثل الإرهاب ، لتبرير إنشاء أنظمة مراقبة السكان من قبل الحكومات ، ولهذا السبب من الضروري توخي الحذر للحد من مخاطر إساءة استخدام هذه الأنظمة.لأغراض أخرى.

Add a Comment

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *