อัลกอริธึมทำพิษ ชี้ Trending Topics จากเฟซบุ๊กเสนอข่าวผิดจากความเป็นจริง

เฟซบุ๊ก (Facebook) งานเข้าอย่างจัง หลังจากเมื่อสัปดาห์ที่ผ่านมา บริษัทได้ออกมาประกาศว่า ได้นำอัลกอริธึมเข้ามาดูแลเนื้อหาที่เป็นกระแสบนโลกออนไลน์อย่าง Trending team แทนพนักงานแล้วอย่างเป็นทางการ ซึ่งผลปรากฏว่า ส่วนงาน trending ที่ดูแลโดย AI นี้ได้สร้างความผิดพลาดหลายประการ และหนึ่งในนั้นเป็นการใส่ลิงก์วิดีโอผิดอย่างไม่น่าให้อภัย

โดยคำชี้แจงจากเฟซบุ๊ก เกี่ยวกับการหันมาใช้งานระบบอัตโนมัติในส่วนงาน Trending Topics นั้นเพราะว่า เฟซบุ๊ก มองว่า พนักงานที่เป็นมนุษย์ไม่สามารถรับมือกับข่าวสารที่มีมากมายทั่วโลกได้ และการที่มีอัลกอริธึมเข้ามาช่วยทำงานแทน จะช่วยให้เฟซบุ๊ก สามารถตอบสนองความต้องการของผู้ใช้งานทั่วโลกได้ดีกว่า

559000009006806

การเปลี่ยนแปลงหลักๆ ของการแสดงผลจะปรากฏดังภาพ ซึ่งในแบบเดิมจะนำเสนอข้อมูลข่าวสารเกี่ยวกับประเด็นที่กำลังฮอตฮิต แต่ในรูปแบบใหม่จะนำเสนอตัวเลขว่า มีผู้ใช้งานกำลังพูดถึงประเด็นนี้มากน้อยแค่ไหน และหากวางเมาส์เหนือหัวข้อ ก็จะพบลิงก์ไปยังข้อมูลข่าวสารนั้นๆ ปรากฏขึ้น

559000009006805

ก่อนหน้านี้ ทีมผู้ดูแล Trending Topics ของเฟซบุ๊ก ได้เคยถูกโจมตีจาก Gizmodo โดยระบุว่า การเผยแพร่ข่าวสารบนโซเชียลมีเดียอาจมีความโน้มเอียงได้หาก Trending Team นั้นดูแลโดยพนักงานที่เป็นมนุษย์ โดยเฉพาะกับแพลตฟอร์มอย่างเฟซบุ๊ก ที่ปัจจุบันถูกเปรียบว่าเป็นแพลตฟอร์มด้านการนำเสนอข่าวที่ใหญ่ที่สุดของโลกไปแล้ว รวมถึงมีการเผยแพร่บทสัมภาษณ์เกี่ยวกับลักษณะการทำงานของพนักงานส่วน Trending Team ที่ค่อนข้างแปลกประหลาดออกมาด้วย โดยอดีตพนักงานเผยว่า เขารู้สึกเหมือนถูกจ้างให้เขียนข่าวเพื่อให้ AI เรียนรู้ และทำงานแทนได้มากกว่าจะเขียนข่าวเพื่อนำเสนอต่อผู้บริโภค

ทั้งนี้ ความผิดพลาดของอัลกอริธึมที่เข้ามาดูแล Trending Topic ซึ่งเกิดขึ้นในช่วงสุดสัปดาห์ ได้แก่ การเผยแพร่บทความพร้อมพาดหัวว่า “BREAKING : Fox News Exposes Traitor Megyn Kelly, Kicks Her Out For Backing Hillary.” ซึ่งในความเป็นจริง Megyn Kelly ยังทำงานอยู่กับฟ็อกซ์นิวส์ และไม่ได้สนับสนุนฮิลลารี คลินตัน เป็นประธานาธิบดีแต่อย่างใด

นอกจากนั้น ยังพบว่าอัลกอริธึมยังมีความเข้าใจในไกด์ไลน์ด้านการนำเสนอผิดพลาด เพราะได้เลือกนำเสนอคลิปวิดีโอผู้ชายคนหนึ่งขณะกำลังช่วยตัวเองโดยใช้เบอร์เกอร์ของแมคผ่านแฮชแท็ก #McChicken ด้วย ซึ่งในกรณีนี้ หากมีพนักงานที่เป็นมนุษย์คอยดูแล ไกด์ไลน์ในการทำงานจะระบุให้ผู้มอนิเตอร์ดึงไอเท็มที่ไม่เหมาะสมในลักษณะนี้ออกไป

ด้านเฟซบุ๊ก ยังไม่มีการออกมาชี้แจงใดๆ เกี่ยวกับความผิดพลาดที่เกิดขึ้น

ที่มา: http://www.manager.co.th/CyberBiz/ViewNews.aspx?NewsID=9590000087145