تکنولوژی

فیس بوک بی اثر بودن هوش مصنوعی خود را در تشخیص خشونت نمی پذیرد

فیس بوک بی اثر بودن هوش مصنوعی خود را در تشخیص خشونت نمی پذیرد

وال استریت ژورنال در گزارش جدیدی اعلام کرده است که هوش مصنوعی فیس بوک به طور مداوم در حذف محتوای خشونت آمیز شکست خورده است. گای روزن، معاون رئیس فیس‌بوک، روز یکشنبه نوشت که گسترش سخنان نفرت‌انگیز و خشونت در این پلتفرم در سه سال گذشته 50 درصد کاهش یافته است و این ایده که فناوری مورد استفاده ما برای مبارزه با محتوای نفرت‌انگیز و خشونت‌آمیز کافی نیست. . اشتباه..

روزن گفت: “نه ما کاربران و نه تبلیغ کنندگان، هیچ کس نمی خواهد محتوای نفرت انگیز و خشونت آمیز را در این پلتفرم ببیند و ما بسیار مصمم هستیم که آن را حذف کنیم.” شواهد نشان می‌دهد که این اقدام به یک برنامه دقیق و بلندمدت نیاز دارد و تیم‌های ما دائماً برای بهبود سیستم‌های تشخیص فیس‌بوک، شناسایی مشکلات و ایجاد راه‌حل کار می‌کنند.»

به نظر می رسد این پست پاسخی به مقاله روز یکشنبه وال استریت ژورنال باشد که در گزارشی مدعی شده بود که کارمندان فیس بوک که وظیفه بررسی محتوای توهین آمیز و خشونت آمیز در این پلتفرم را دارند، سیستم های این شرکت را خراب کرده اند. آنها به اندازه کافی مطمئن نیستند. بر اساس گزارش این روزنامه، اسناد داخلی نشان می دهد که فیس بوک دو سال پیش نیروی انسانی خود را برای بررسی شکایات مربوط به نفرت و سخنان خشونت آمیز کاهش داده و در عوض از هوش مصنوعی خود در این زمینه استفاده کرده است. این اقدام فیسبوک از عملکرد موثر و کاربردی هوش مصنوعی این شرکت در اجرای قوانین مرتبط با محتوای خشونت آمیز خبر داد.

2o5aml4dgd فیس بوک بی اثر بودن هوش مصنوعی خود را در تشخیص خشونت نمی پذیرد

کارمندان فیس بوک در ماه مارس دریافتند که سیستم های خودکار این شرکت 3 تا 5 درصد از پست های نفرت انگیز را در پلتفرم اجتماعی حذف می کنند. با این حال، روزن اظهار داشت که تمرکز بر حذف چنین محتوایی راه درستی برای مبارزه با این محتوای خشونت آمیز نیست. او می گوید فناوری حذف محتوای نفرت انگیز تنها راهی است که فیس بوک با آن مبارزه می کند.

روزن بر این باور است که تمرکز بر محتوای نفرت انگیزی که در پلتفرم می بینیم و کاهش آن با ابزارهای مختلف، گامی حیاتی است. او مدعی شد که به ازای هر 10000 نفری که از محتوای فیس بوک بازدید می کنند، 5 نفر از کلمات مبتذل و ناپسند استفاده می کنند. اما گزارش‌های اخیر حاکی از آن است که برخی از محتوای مهم می‌تواند در تشخیص هوش مصنوعی فیس‌بوک تداخل ایجاد کند، از جمله ویدیوهایی از تصادفات اتومبیل که افراد مجروح را نشان می‌دهد و تهدیدهای خشونت‌آمیز علیه کودکان ترنس.

وال استریت ژورنال گزارش های متعددی را بر اساس اسناد داخلی ارائه شده توسط افشاگر فرانسیس هاگن در فیس بوک تهیه کرده است. او اخیرا اعتراف کرد که این شرکت از تأثیر منفی اینستاگرام بر نوجوانان آگاه بوده است، گزارشی که فیس بوک بر اساس اسناد داخلی آن را رد کرد. بد نیست بدانید حدود یک ماه پیش وال استریت ژورنال گزارشی بر اساس داده های داخلی فیس بوک منتشر کرد که بر اساس آن اینستاگرام آسیب روانی حدود یک سوم دختران نوجوان را افزایش می دهد. به نظر می رسد که این گزارش بر اساس تحقیقات داخلی انجام شده توسط رئیس تحقیقات فیس بوک نوشته شده است. با این حال، این مقام ارشد فیس بوک تاکید کرد که توصیف وال استریت ژورنال از این اطلاعات نادرست است.

u8znvdgdg3 فیس بوک بی اثر بودن هوش مصنوعی خود را در تشخیص خشونت نمی پذیرد

وال استریت ژورنال طی چند ماه گذشته بر اساس تحقیقات داخلی فیسبوک گزارش های مختلفی از این شبکه اجتماعی و زیرمجموعه های آن منتشر کرده است. در این گزارش جدید به طور خاص به تأثیر اینستاگرام بر آسیب های روانی نوجوانان به ویژه دختران نوجوان پرداخته شده است. این روزنامه مدعی است فیس بوک به خوبی از تاثیرات منفی محصولاتش بر نوجوانان آگاه است اما این موضوع جزو اولویت های این شرکت نیست. رئیس تحقیقات فیس بوک بسیاری از موضوعات مطرح شده در گزارش وال استریت ژورنال، از جمله اعتیاد نوجوانان به اینستاگرام را رد کرد و در عوض تمام توجهات را بر اهمیت جزئی این مطالعه متمرکز کرد. او می‌گوید این مطالعه تنها 40 شرکت‌کننده داشت که برای پلتفرمی که بیش از یک میلیارد نفر از آن استفاده می‌کنند بسیار کم است.

متأسفانه فیس بوک، اینستاگرام یا رئیس بخش تحقیقات فیس بوک هیچ داده ای برای اثبات سخنان خود منتشر نکرده اند. بدون انتشار داده های موثق، رد گزارش وال استریت ژورنال و پذیرش سخنان مدیر عامل فیس بوک بسیار دشوار است. در عین حال لازم به ذکر است که این اولین بار نیست که درباره تاثیرات منفی و مخرب اینستاگرام بر سلامت روان نوجوانان صحبت می شود و به نظر می رسد هنوز این موضوع در اولویت های فیسبوک قرار نگیرد.

نظرات

نظرتان را با ما به اشتراک بگذارید!

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *