Các vấn đề về nội dung của Facebook ở nước ngoài có thể còn tồi tệ hơn ở Hoa Kỳ
Vào tháng 2 năm 2019, Facebook Inc. đã thiết lập một tài khoản thử nghiệm ở Ấn Độ để xác định xem các thuật toán của riêng mình ảnh hưởng như thế nào đến những gì mọi người thấy ở một trong những thị trường nước ngoài phát triển nhanh nhất và quan trọng nhất. Kết quả đã gây sửng sốt cho chính nhân viên của công ty.
Trong vòng ba tuần, nguồn cấp dữ liệu của người dùng Ấn Độ mới đã trở thành một mớ hỗn độn của tin tức giả mạo và hình ảnh kích động.
Có những bức ảnh đồ họa về các vụ chặt đầu, hình ảnh giả thuyết về các cuộc không kích của Ấn Độ chống lại Pakistan và các cảnh bạo lực. Một nhóm cho “những điều khiến bạn bật cười” đã đưa tin giả về 300 kẻ khủng bố đã chết trong một vụ đánh bom ở Pakistan.
“Tôi đã nhìn thấy nhiều hình ảnh về người chết hơn trong 3 tuần qua so với toàn bộ cuộc đời mình”, một nhân viên viết, theo một ghi chú nghiên cứu dài 46 trang nằm trong số tài liệu được tung ra bởi người tố giác Facebook – Frances Haugen.
Bài kiểm tra đã chứng minh khả năng đáng chú ý vì nó được thiết kế để tập trung hoàn toàn vào vai trò của Facebook trong việc đề xuất nội dung. Tài khoản thử nghiệm sử dụng hồ sơ của một phụ nữ 21 tuổi sống ở thành phố Jaipur, miền tây Ấn Độ và đến từ Hyderabad. Người dùng chỉ theo dõi các trang hoặc nhóm do Facebook đề xuất hoặc gặp qua các đề xuất đó. Tác giả của ghi chú nghiên cứu đã gọi trải nghiệm này là “cơn ác mộng về tính toàn vẹn”.
Mặc dù những tiết lộ của Haugen đã vẽ nên một bức tranh đáng nguyền rủa về vai trò của Facebook trong việc truyền bá nội dung có hại ở Hoa Kỳ, thử nghiệm ở Ấn Độ cho thấy rằng ảnh hưởng của công ty này trên toàn cầu có thể còn tồi tệ hơn. Phần lớn số tiền Facebook chi cho việc kiểm duyệt nội dung tập trung vào các phương tiện truyền thông ngôn ngữ Anh ở các quốc gia như Hoa Kỳ.
Tuy nhiên, sự phát triển của công ty phần lớn đến từ các quốc gia như Ấn Độ, Indonesia và Brazil, nơi họ đã phải vật lộn để thuê những người có kỹ năng ngôn ngữ để áp đặt ngay cả những giám sát cơ bản. Thách thức đặc biệt gay gắt ở Ấn Độ, quốc gia 1,3 tỷ dân với 22 ngôn ngữ chính thức. Facebook có xu hướng thuê ngoài giám sát nội dung trên nền tảng của mình cho các nhà thầu từ các công ty như Accenture.
Người phát ngôn của Facebook cho biết:
“Chúng tôi đã đầu tư đáng kể vào công nghệ để tìm lời nói căm thù bằng nhiều ngôn ngữ khác nhau, bao gồm cả tiếng Hindi và tiếng Bengali. Do đó, chúng tôi đã giảm được một nửa số lượng ngôn từ kích động thù địch mà mọi người nhìn thấy trong năm nay. Hiện nay, nó giảm xuống 0,05%. Ngôn từ kích động thù địch chống lại các nhóm bị lép vế, bao gồm cả người Hồi giáo, đang gia tăng trên toàn cầu. Vì vậy, chúng tôi đang cải thiện việc thực thi và cam kết cập nhật chính sách của mình khi ngôn từ kích động thù địch phát triển trực tuyến.”
Tài khoản thử nghiệm người dùng mới được tạo vào ngày 4 tháng 2 năm 2019 trong chuyến đi của nhóm nghiên cứu đến Ấn Độ, theo báo cáo. Các nhà nghiên cứu viết rằng Facebook là một “nơi khá trống trải” khi không có bạn bè, chỉ có các tab Watch và Live của công ty gợi ý những thứ cần xem xét.
“Chất lượng của nội dung này là … không lý tưởng,” báo cáo cho biết. Khi dịch vụ video Watch không biết người dùng muốn gì, “có vẻ như nó sẽ giới thiệu một loạt phim khiêu dâm nhẹ nhàng”, theo sau là biểu tượng cảm xúc cau có.
Thử nghiệm bắt đầu có hiệu lực vào ngày 11 tháng 2, khi người dùng thử nghiệm bắt đầu khám phá nội dung do Facebook đề xuất, bao gồm các bài đăng phổ biến trên mạng xã hội. Cô ấy bắt đầu với các trang web lành tính, bao gồm trang chính thức của Đảng Bharatiya Janata cầm quyền của Thủ tướng Narendra Modi và BBC News India.
Sau đó, vào ngày 14 tháng 2, một cuộc tấn công khủng bố ở Pulwama thuộc bang Kashmir nhạy cảm về chính trị đã giết chết 40 nhân viên an ninh Ấn Độ và hàng chục người khác bị thương. Chính phủ Ấn Độ cho rằng vụ tấn công là do một nhóm khủng bố Pakistan.
Ngay sau đó, nguồn cấp dữ liệu của người thử nghiệm đã biến thành một loạt các bài phát biểu căm thù chống Pakistan, bao gồm hình ảnh về một vụ chặt đầu và một hình ảnh cho thấy các hoạt động chuẩn bị thiêu rụi một nhóm người Pakistan.

Ngoài ra còn có những thông điệp mang tính dân tộc chủ nghĩa, những tuyên bố phóng đại về các cuộc không kích của Ấn Độ ở Pakistan, những bức ảnh giả về vụ nổ bom và một bức ảnh giả nhằm cho thấy một người lính mới kết hôn bị giết trong cuộc tấn công đang chuẩn bị trở về với gia đình của mình.
Nhiều bài đăng đầy căm thù được viết bằng tiếng Hindi, ngôn ngữ quốc gia của nước này, thoát khỏi các kiểm soát kiểm duyệt nội dung thông thường trên mạng xã hội. Ở Ấn Độ, người ta chỉ sử dụng hàng chục hoặc nhiều biến thể khu vực của tiếng Hindi. Nhiều người sử dụng sự pha trộn giữa tiếng Anh và tiếng Ấn Độ, khiến cho một thuật toán gần như không thể sàng lọc được mớ bòng bong thông tục. Người kiểm duyệt nội dung của con người sẽ cần phải nói một số ngôn ngữ để sàng lọc nội dung độc hại.
“Sau 12 ngày, 12 máy bay đã tấn công Pakistan,” một bài đăng mang sắc thái hả hê đắc chí. Một người khác, một lần nữa bằng tiếng Hindi, tuyên bố là “Tin nóng” về cái chết của 300 kẻ khủng bố trong một vụ nổ bom ở Pakistan. Tên của nhóm chia sẻ tin tức là “Cười và những điều khiến bạn cười.” Một số bài đăng có chứa các bức ảnh giả mạo về một quả bom napalm được cho là cuộc không kích của Ấn Độ nhằm vào Pakistan tiết lộ, “300 con chó đã chết. Bây giờ hãy nói Ấn Độ muôn năm, Pakistan chết chóc ”.
Báo cáo – có tựa đề “Một người dùng thử nghiệm Ấn Độ sa vào biển thông điệp dân tộc chủ nghĩa phân cực” – cho thấy rõ Facebook có ít quyền kiểm soát như thế nào tại một trong những thị trường quan trọng nhất của họ. Gã khổng lồ công nghệ có trụ sở tại Menlo Park, California đã coi Ấn Độ là thị trường tăng trưởng quan trọng và sử dụng nó như một nơi thử nghiệm các sản phẩm mới. Năm ngoái, Facebook đã chi gần 6 tỷ USD để hợp tác với Mukesh Ambani, người giàu nhất châu Á, người đứng đầu tập đoàn Reliance.
Người phát ngôn của Facebook cho biết:
“Nỗ lực khám phá này của một tài khoản thử nghiệm giả định đã truyền cảm hứng cho những phân tích sâu hơn, chặt chẽ hơn về hệ thống đề xuất của chúng tôi và góp phần vào những thay đổi sản phẩm để cải thiện chúng. Công việc của chúng tôi trong việc kiềm chế lời nói căm thù vẫn tiếp tục và chúng tôi đã tăng cường hơn nữa các công cụ phân loại thù địch của mình, để bao gồm bốn ngôn ngữ Ấn Độ”.
Nhưng công ty cũng đã nhiều lần gây rối với chính phủ Ấn Độ về các hoạt động của họ ở đó. Các quy định mới yêu cầu Facebook và các công ty truyền thông xã hội khác xác định các cá nhân chịu trách nhiệm về nội dung trực tuyến của họ – khiến họ phải chịu trách nhiệm trước chính phủ. Facebook và Twitter Inc. đã chống lại các quy tắc.
Trên nền tảng WhatsApp của Facebook, các tin nhắn giả mạo lan truyền về các băng nhóm bắt cóc trẻ em, dẫn đến hàng chục vụ ly khai trên khắp đất nước bắt đầu từ mùa hè năm 2017, càng khiến người dùng, tòa án và chính phủ phẫn nộ.
Báo cáo của Facebook kết thúc bằng việc thừa nhận các khuyến nghị của chính mình đã khiến tài khoản người dùng thử nghiệm trở nên “chứa đầy nội dung phân cực và đồ họa, lời nói căm thù và thông tin sai lệch”. Nghe có vẻ như một lưu ý đầy hy vọng rằng trải nghiệm “có thể đóng vai trò là điểm khởi đầu cho các cuộc trò chuyện xung quanh việc hiểu và giảm thiểu tác hại đến tính toàn vẹn” từ các khuyến nghị của nó ở các thị trường ngoài Hoa Kỳ.
Theo Bloomberg