افشاگر فیس بوک قبل از شهادت کنگره به طور علنی صحبت می کند


یک افشاگر فیس بوک در مصاحبه یکشنبه شب هویت خود را فاش کرد در حالی که غول رسانه های اجتماعی را به دلیل اولویت دادن به محتوای تفرقه انگیز بر ایمنی به منظور ایجاد سود بیشتر ، رد کرد.

فرانسیس هاوگن ، 37 ساله ، برای اولین بار پس از خروج از فیس بوک در ماه مه هنگامی که این شرکت واحد خود را در تلاش برای مبارزه با اطلاعات غلط در پلت فرم محبوب ، منحل کرد ، صحبت کرد.

هاوگن قبل از خروج از شرکت ، هزاران صفحه از اسناد داخلی را کپی کرد که برخی از آنها قبلاً گزارش شده بود ، تا از ادعاهای او حمایت کند.

هاوگن در “60 دقیقه” CBS گفت: “در فیس بوک بارها و بارها دیدم که بین آنچه برای عموم خوب است و آنچه برای فیس بوک خوب است تضاد منافع وجود دارد.”

هاوگن می گوید: “فیس بوک همیشه تصمیم گرفته است که برای منافع خود مانند درآمد بیشتر بهینه سازی کند.”

هاوگن ، دانشمند اطلاعات از آیووا ، آنچه را عدم فعالیت فیس بوک در از بین بردن اطلاعات غلط توصیف کرد ، با شورش های 6 ژانویه در پایتخت ایالات متحده مرتبط دانست.

پس از انتخابات قطبی در سال 2020 ، هاوگن گفت که این شرکت واحد صداقت مدنی را کنار گذاشته و برخی از ویژگی های امنیتی را که برای کاهش اطلاعات غلط معرفی کرده بود ، غیرفعال کرده است.

“آنها به ما گفتند ،” ما تمامیت مدنی را می شکنیم. ” آنها اساساً می گفتند: “اوه ، خوب ، ما از انتخابات عبور کردیم. هیچ شورشی وجود نداشت. ما اکنون می توانیم از تمامیت مدنی خلاص شویم. “

“چند ماه جلو بروید ، ما به شورش رسیدیم.”

هاوگن گفت که فیس بوک می تواند به دلیل انحلال واحد تمامیت مدنی پس از انتخابات 2020 در ناآرامی های کنگره مشارکت داشته باشد.
عکس AP / خولیو کورتز ، پرونده

هاوگن در مورد ویژگی ها می گوید: “پس از اتمام انتخاب ، آنها دوباره آنها را خاموش کردند یا تنظیمات را به حالت قبل تغییر دادند تا امنیت را افزایش دهند.”

“و این واقعاً برای من خیانت به دموکراسی است.”

فیس بوک به CBS اطلاع داد که کار بخش منحل شده به طور داخلی به واحدهای دیگر واگذار شده است.

هاوگن به اسکات پیلی مجری برنامه گفت که به دلیل تغییراتی که در سال 2018 در الگوریتم های خود ایجاد کرد و بر اساس تعامل قبلی محتوا را برای حساب های شخصی در اولویت قرار داد ، فیس بوک در حال افزایش محتوای تفرقه افکن است.

هاوگن می گوید: “یکی از پیامدهای انتخاب محتوای فیس بوک امروز این است که برای محتواهایی که مشارکت یا واکنش ایجاد می کنند بهینه سازی شود.”

نمونه هایی از اطلاعات غلط ارسال شده در فیس بوک.
نمونه هایی از اطلاعات غلط که در فیس بوک ارسال شده است.
CBS

هاوگن می گوید: “اما تحقیقات خود آنها نشان می دهد که محتوای نفرت انگیز ، تفرقه انگیز ، قطبی ، الهام بخشیدن به خشم را آسان تر از ایجاد احساسات دیگر می کند.”

این زن گفت: “فیس بوک متوجه شده است که اگر افراد الگوریتم خود را برای امنیت بیشتر تغییر دهند ، افراد زمان کمتری را در وب سایت صرف می کنند ، روی تبلیغات کمتر کلیک می کنند و پول کمتری کسب می کنند.”

هاوگن این هفته در کنگره شهادت می دهد. وی بیشمار شکایت ناشناس علیه این شرکت به آژانس های فدرال ارسال کرده است.

هاوگن در مصاحبه ای که روز یکشنبه پخش شد ، گفت که از سال 2019 یک گزارش داخلی دریافت کرده است که شامل مشاجره احزاب سیاسی اروپایی درباره محتوایی است که به دلیل الگوریتم آنها بر پلت فرم آنها تسلط دارد.

هاوگن قرار است این هفته قبل از کنگره در فیس بوک شهادت دهد.
هاوگن قرار است این هفته قبل از کنگره در فیس بوک شهادت دهد.
رابرت فورتوناتو / CBS News / 60 دقیقه در AP

هاوگن گفت طرفین “کاملاً معتقدند که تغییر الگوریتم آنها را مجبور کرده است که ارتباطات خود را در فیس بوک منفی کنند و آنها را به سمت مواضع سیاسی شدیدتر سوق دهد.”

در بیانیه ای در “60 دقیقه” ، فیس بوک ادعاها مبنی بر تبلیغ محتوای مضر این شرکت را رد کرد.

وی ادامه داد: ما پیشرفت های چشمگیری را برای مبارزه با انتشار اطلاعات غلط و محتوای مضر انجام می دهیم. گفتن اینکه ما محتوای بد را تبلیغ می کنیم و کاری انجام نمی دهیم درست نیست. “

اگر تحقیقی راه حلی دقیق برای این چالش های پیچیده پیدا می کرد ، صنایع فناوری ، دولت ها و جامعه مدت ها پیش آنها را حل می کردند. “