Chỉ mất 3 tuần để người dùng Facebook ngập trong tin giả

Báo cáo nội bộ chỉ ra rằng thuật toán của Facebook không chỉ đưa tin giả mà còn đề xuất những hình ảnh kích động sự thù địch tại Ấn Độ, thị trường lớn nhất của nền tảng này.

Tập tài liệu có tên “The Facebook Papers”, do cựu nhân viên Facebook Frances Haugen thu thập đã mô tả chi tiết việc lan truyền phát ngôn thù địch và hình ảnh bạo lực tại Ấn Độ trên mạng xã hội này.

Cụ thể, vào ngày 4/2/2019, một nhà nghiên cứu của Facebook đã tạo tài khoản thử nghiệm với tư cách là một người sống tại Kerala, Ấn Độ. Tài khoản này làm theo những gì mà thuật toán đề xuất, bao gồm việc tham gia nhóm, xem video, và thích những trang mới trên Facebook.

Kết quả là chỉ trong 3 tuần, bản tin của tài khoản đó toàn những tin giả và hình ảnh gây thù hận.

Thuật toán của Facebook là "thủ phạm"

Tài khoản trên sử dụng hồ sơ của một phụ nữ 21 tuổi đến từ Hyderabad, hiện sống tại thành phố Jaipur. Thuật toán dường như thể hiện rõ vai trò từ ngày 11/2 khi người dùng khám phá nội dung do Facebook đề xuất, bao gồm các bài đăng phổ biến trên mạng xã hội. Cô bắt đầu với các trang web lành tính, như trang chính thức của đảng Bharatiya Janata và BBC News India.

Chỉ mất 3 tuần để người dùng Facebook ngập trong tin giả

“Đứa con tinh thần” của Mark Zuckerberg lại vấp phải bê bối. Ảnh: Business Insider

Tuy nhiên, diễn biến xảy ra vào ngày 14/2 đã khiến mọi chuyện trở nên nghiêm trọng hơn. Một cuộc khủng bố chính trị ở Pulwama, bang Kashmir đã khiến 40 nhân viên an ninh Ấn Độ thiệt mạng và khiến hàng chục người khác bị thương. Chính phủ Ấn Độ cho rằng vụ tấn công là do một nhóm khủng bố Pakistan gây nên.

Sau vụ việc trên, thuật toán Facebook ở tài khoản này đã tự cập nhật thành một loạt bài phát biểu hận thù chống Pakistan, có chứa hình ảnh đẫm máu về việc xử trảm một nhóm người Pakistan.

Chỉ trong vòng 3 tuần, thuật toán đã đưa ra vô số phát ngôn thù địch, tin giả cùng những lời lẽ cổ xúy bạo lực trên trang facebook ảo.

“Sau 3 tuần theo dõi News Feed của người dùng thử nghiệm, tôi thấy hình ảnh về số người chết nhiều hơn so với những gì tôi đã chứng kiến trong suốt cuộc đời mình”, nhà nghiên cứu Facebook cho biết.

Ở Ấn Độ, Hindi là ngôn ngữ chính. Người dân nơi đây sử dụng hàng chục biến thể khác của tiếng Hindi tùy theo khu vực mà họ sinh sống. Thậm chí, một số người còn sử dụng cả tiếng Anh lẫn nhiều thứ tiếng khác của Ấn Độ, khiến cho thuật toán gần như không thể sàng lọc hết những nội dung đa ngôn ngữ. Nhiều bài đăng tiêu cực viết bằng tiếng Hindi cũng đã thoát khỏi sự kiểm duyệt nội dung trên nền tảng này.

Hồi đáp của Facebook

Facebook cho biết họ đã đào tạo hệ thống AI nhận diện được 5 ngôn ngữ trên tổng số 22 ngôn ngữ được công nhận chính thức tại Ấn Độ. Dù vậy, hệ thống vẫn không đủ khả năng để kiểm duyệt chính xác 100% những bài đăng với nhiều ngôn ngữ khác nhau.

Tài liệu nội bộ chỉ ra rằng Facebook không đủ nguồn lực tại Ấn Độ. Bên cạnh đó, báo cáo cho thấy 87% ngân sách của công ty dành cho việc phân loại tin giả được tiêu tại Mỹ, trong khi con số toàn cầu chỉ chiếm 13% - mặc dù Bắc Mỹ không phải là thị trường đông đảo người dùng nhất của Facebook. Vì vậy, việc mạng xã hội không thể đối mặt với hầu hết vấn đề, bao gồm các bài đăng chống Hồi giáo là điều khá dễ hiểu.

Chỉ mất 3 tuần để người dùng Facebook ngập trong tin giả

Ấn Độ là thị trường lớn nhất của Facebook. Ảnh: Bloomberg

Andy Stone, đại diện của Facebook, cho biết công ty đã đầu tư đáng kể vào công nghệ để lọc những phát ngôn bạo lực trong nhiều ngôn ngữ khác nhau, bao gồm cả tiếng Hindi và tiếng Bengali - 2 trong số những ngôn ngữ phổ biến nhất tại Ấn Độ. Ông cũng nói thêm rằng trong năm nay, Facebook đã giảm một nửa số lượng ngôn từ kích động thù địch trên toàn cầu.

“Phát ngôn thù địch và những nội dung tiêu cực về người Hồi giáo đang gia tăng tại Ấn Độ và toàn cầu. Vì vậy, chúng tôi đang cải thiện việc thực thi và cam kết cập nhật các chính sách khi những lời lẽ này tiếp tục diễn ra”, ông Stone chia sẻ.

Sau sự cố gây kích động bạo lực thông qua tài khoản thử nghiệm tại Ấn Độ, Facebook đã thừa nhận việc lan truyền các thông tin không đúng đắn. Đại diện phía Facebook khẳng định rằng cuộc thử nghiệm này là sự khám phá mới mẻ và đã “truyền cảm hứng cho công ty trong việc phân tích sâu và chặt chẽ hơn về hệ thống đề xuất, góp phần vào những thay đổi để cải thiện nền tảng”.

Theo Zing

Đọc thêm

Tin mới Emagazine Truyền hình Podcast