مدیر اجرایی فیس بوک می گوید الگوریتم کاربران را در برابر این موارد محافظت می کند ‘سخنان تنفرآمیز’


الگوریتم بحث برانگیز فیس بوک از کاربران در برابر محتوای خشونت بار در امان می ماند سخنان تنفرآمیز و اطلاعات نادرست در مصاحبه ای که روز یکشنبه انجام شد ، به نقل از معاون رئیس شرکت ، که با سیاست ها و امور جهانی دست و پنجه نرم می کرد ، گفت:

نیک کلگ از فیس بوک در برابر ادعاهای افشاگر فرانسیس هاوگن دفاع کرد که الگوریتم او باعث ایجاد صفحات کلیکی و محتوای خشونت آمیز می شود – اما اصرار دارد که این شرکت نمی تواند از اطلاعات غلط و سخنان نفرت انگیز خلاص شود.

“اگر الگوریتم را حذف کنید … کلگ در گفتگو با دانا باش از CNN’s State of the Union گفت: “اولین چیزی که اتفاق می افتد این است که مردم بیشتر شاهد نفرت هستند ، نه کمتر – نه کمتر اطلاعات غلط.” محتوای بد “

وی گفت: “به ازای هر ده هزار بیت محتوا ، شما فقط پنج قسمت از سخنان نفرت انگیز را مشاهده می کنید.” “امیدوارم بتوانیم آن را به صفر برسانیم.” ما یک سوم جمعیت جهان را در پلت فرم خود داریم. ما مطمئناً خوبی ها ، بدی ها و زشتی های طبیعت انسان را در سکوی خود می بینیم. “

کلگ اصرار داشت که الگوریتم های فیس بوک نقش خاصی در راه اندازی شورش های 6 ژانویه در کنگره ایفا نمی کند. او در “Meet The Press” شبکه NBC به چاک تاد گفت که هاوگن ادعا کرده است که فیس بوک اقدامات با هدف کاهش سطح کاربران را لغو کرده است. تغذیه پس از انتخابات ریاست جمهوری 2020 “درست نیست”

“در واقع ، ما اکثر آنها را تا مراسم افتتاحیه نگه داشتیم. و ما برخی از آنها را برای همیشه نگهداری می کنیم. “کلگ به تاد گفت. و افزود که برخی از تغییرات “یکبار” بوده است.

او گفت که این شرکت “ابزارهای بلاتکلیفی” مانند کاهش انتشار ویدیو ، فرصت های مشارکت مدنی و تبلیغات سیاسی ناخواسته را معکوس کرد. “جمع آوری تمام محتوای سرگرم کننده و سرگرم کننده قانونی بی گناه”

نیک کلگ ، مدیرعامل فیس بوک ، رد کرد که شورش های کنگره در 6 ژانویه به دلیل الگوریتم این پلتفرم ایجاد شده است.
خبرگزاری فرانسه از طریق گتی ایماژ
تصویر لوگوی فیس بوک با افراد روی لپ تاپ
فیس بوک نیز به دلیل عدم رسیدگی به کارتل های مواد مخدر ، قاچاقچیان انسان و کودکان پدوفیل مورد بررسی دقیق قرار گرفته است.
رویترز

کلگ گفت: “ما این کار را به طرز شگفت انگیزی انجام می دهیم.” “ما فقط اجازه می دهیم مطالب معمولی کمتر و کمتر در پلت فرم ما پخش شود. این کاری است که ما به دلیل شرایط خاص انجام می دهیم. “

کلگ به تاد گفت که مسئول کنگره است “یک کنترلر دیجیتالی ایجاد کنید” و قوانین مربوط به حریم خصوصی داده ها و تعدیل محتوا را تعیین کنید.

“من فکر نمی کنم کسی بخواهد شرکت های خصوصی درباره این مبادلات دشوار قضاوت کنند. بین بیان آزاد در یک طرف وی گفت: “تعدیل یا حذف محتوا از طرف دیگر.” “مناقشه سیاسی اساسی وجود دارد. سمت راست فکر می کند که ما… سانسور بیش از حد محتوا چپ فکر می کند که ما هنوز محتوای کافی را حذف نکرده ایم. “

نیک کلگ ، نایب رئیس سیاست و امور جهانی در فیس بوک.
نیک کلگ ، مدیرعامل فیس بوک استدلال می کند که “فرصت های مشارکت شهروندان و تبلیغات سیاسی” به شهرت شرکت لطمه می زند.
dpa/Partner Images از طریق Getty I

کلگ به جورج استفانوپولوس از ABC گفت که مقایسه اطلاعات گزارش شده فیس بوک در مورد خطرات محصولات این شرکت برای کودکان و آگاهی جامعه از خطرات سیگار شرکت های دخانیات “بسیار گمراه کننده” است.

“در دهه های 80 و 90 یک شباهت وجود داشت که تماشای بیش از حد تلویزیون مانند اعتیاد به الکل بود. او گفت: “یا یک بازی بازی مانند Pac Man مانند مصرف مواد مخدر است.” “ما نمی توانیم طبیعت انسان را تغییر دهیم. شما همیشه چیزهای بدی را در اینترنت خواهید دید. “

دیدگاهتان را بنویسید