وقالت شركة الفيسبوك إنها ألغت 583 مليون صورة مزيفة في الأشهر الثلاثة الأولى من العام ، وعادة خلال دقائق من إنشائها.
وقالت الشركة يوم الثلاثاء في أول تقرير لها على الإطلاق عن مدى فعالية تطبيق معايير المجتمع. كما أن الشبكة الاجتماعية ألغت 837 مليون قطعة من الرسائل الاقتحامية وعملت على 2.5 مليون حالة من خطاب الكراهية.
تعرض موقع "فيس بوك" للفحص المكثف في وقت سابق من هذا العام حول استخدام البيانات الخاصة وتأثير المحتوى الضار على مستخدميها الشهريين البالغ عددهم 2.2 مليار ، مع استجواب الحكومات حول العالم لسياسات الشركة. تقرير الثلاثاء ، الذي سيصدر مرتين في السنة ، يمكن أن يظهر كيف أن أنظمة الذكاء الاصطناعي في الفيسبوك تتعلم أن تعلّم المواد التي تنتهك القواعد قبل أن يتمكن أي شخص في الموقع من رؤيتها.
الاستنتاج من المقاييس الأولى: بعض المشكلات أكثر ملاءمة للحلول المحوسبة أكثر من غيرها. تم وضع علامة على 100٪ تقريبًا من الرسائل غير المرغوب فيها و 96 في المئة من العري البالغين بسبب الإزالة ، بمساعدة التكنولوجيا ، قبل أن يشكو أي من مستخدمي Facebook من ذلك. لكن 38٪ فقط من الكلام الذي يحض على الكراهية قد لاحظته منظمة العفو الدولية. يصعب التعامل مع الكلام الذي يحض على الكراهية نظرًا لأن أجهزة الكمبيوتر غالبًا لا تستطيع فهم معنى الجملة - مثل الفرق بين شخص ما يستخدم افتراءًا عنصريًا لمهاجمة شخص ما ، وشخصًا يروي قصة عن هذا الخطأ.
توضح الأرقام أيضًا عدد المرات التي يحاول فيها الأشخاص استغلال Facebook. تعمل شركة مينلو بارك ، ومقرها في كاليفورنيا باستمرار على أخذ الحسابات المزيفة. في الربع الرابع ، أزال 694 مليونًا ، ولا تأخذ الأرقام في الحسبان ملايين الأشخاص الذين حاولوا إعداد الحسابات وفشلوا في ذلك. لا يزال Facebook يقدر أن الملفات الشخصية المزيفة تمثل 3 إلى 4 في المائة من المستخدمين النشطين شهريًا.
وقال جاي روزين ، نائب رئيس إدارة المنتجات في الفيسبوك ، في مؤتمر صحفي: "إنه عمل مستمر دائماً". "هذه هي نفس المقاييس التي نستخدمها داخليًا لتوجيه مقاييس الفرق. نحن نشاركهم هنا لأننا نعتقد أننا بحاجة إلى أن نكون مسؤولين ".
واجه المدير التنفيذي مارك زوكربيرج عدة أسئلة خلال شهادته أمام الكونجرس في شهر أبريل حول إزالة المحتوى. لماذا ، على سبيل المثال ، جعل فيسبوك من الممكن للأشخاص بيع المواد الأفيونية على الموقع ، على الرغم من أنه يقول أن المحتوى محظور؟ لماذا يتم حظر بعض الأشخاص ، حتى لو لم يفعلوا شيئًا خاطئًا؟ أوضح زوكربيرج أن فيسبوك يقوم بتوظيف الآلاف من الأشخاص الذين يمكنهم ، على مدار ملايين القرارات المتعلقة بالمحتوى ، تدريب نظام ذكاء اصطناعي أفضل. في الآونة الأخيرة ، أصدر الفيسبوك لأول مرةالقواعد الداخلية حول ما تبقى وما ينزل.
كان تطبيق هذه القواعد متقطعاً ، لا سيما في المناطق التي لم يستأجر فيها فيسبوك ما يكفي من الأشخاص الذين يتحدثون اللغات المحلية ، أو في موضوعات غير مألوفة لبرنامج المنظمة. تعرضت الشركة لانتقادات لعدم قيامها بإزالة المحتوى الذي أثار العنف العرقي في ميانمار ، مما دفع الفيسبوك إلى توظيف المزيد من المتحدثين البورمية. أظهرتقرير بلومبرغ الأسبوع الماضي أنه في الوقت الذي يقول فيه فيس بوك إنه أصبح فعالاً في القضاء على المحتوى الإرهابي من تنظيم القاعدة والدولة الإسلامية ، فإنه يمكن بسهولة العثور على مراكز توظيف للجماعات الإرهابية الأخرى التي حددتها الولايات المتحدة على الموقع.
في الوقت الذي تزداد فيه فعالية الذكاء الاصطناعي في الإبلاغ عن المحتوى ، لا يزال على المراجعين البشريين في Facebook إنهاء المهمة. قد تكون الصورة التي تتضمن عريًا إباحيًا ، أو قد تكون فنية ، ويمكن للعين البشرية عادةً معرفة الفرق. تتوقع الشركة أن يكون لديها 20 ألف شخص يعملون في مجال الإشراف على المحتوى والأمان بحلول نهاية العام.
يقول فيس بوك إنه سيقيس حجم مشكلاته استنادًا إلى "انتشار" المحتوى ، أو نسبة المشاهدات الإجمالية للعناصر على Facebook. لكل 10000 مشاهدة للمحتوى ، تشير التقديرات إلى أن 22 إلى 27 احتوت على العنف الجرافيكي و 7 إلى 9 كانت تتضمن العري والعنف الجنسي الذي انتهك القواعد ، حسبما ذكرت الشركة. يتم أخذ التقدير من أخذ عينات شاملة من جميع المحتويات في الربع الأول ، تم ترجيحها حسب شعبية هذا المحتوى. ليس لدى Facebook بعد مقياسًا لانتشار أنواع أخرى من المحتوى.
وقال أليكس شولتز ، نائب رئيس تحليل البيانات ، في الإحاطة الإعلامية: "آمل أن يكون لدينا المزيد من الأرقام في المرة القادمة التي نبلغ فيها". "يجب أن نقيسها بشكل جيد ، وأن نكون جيدين في توضيح سبب تحركهم".

تعليقات: 0
إرسال تعليق