Starling Bank เผย ผู้คนหลายล้านคน อาจตกเป็นเป้าของมิจจี้ จากการปลอมเสียงด้วย AI 

ปัจจุบัน เทคโนโลยีที่ถูกพูดถึงมากที่สุดคงหนีไม่พ้น AI หรือ ปัญญาประดิษฐ์คอมพิวเตอร์ ที่มีฟังก์ชันสามารถทำงานและเลียนแบบการทำกิจกรรมของมนุษย์ได้ แน่นอนว่านอกจากจะสร้างคุณประโยชน์ให้กับมวลมนุษย์แล้ว ยังเป็นภัยร้ายที่ก่อความเสียหายได้มากเช่นกัน 

Starling หนึ่งในธนาคารดิจิทัลที่มีขนาดใหญ่ที่สุดในสหราชอาณาจักร (อังกฤษ) ได้เผยข้อมูลเพื่อแจ้งเตือนเกี่ยวกับการโจรกรรมทางออนไลน์ว่า มีผู้คนนับล้านคน อาจตกเป็นเหยื่อของการหลอกลวงโดยใช้ปัญญาประดิษฐ์เพื่อโคลนเสียงของบุคคลได้

โดยมิจฉาชีพจะใช้เสียงจากคลิปวิดีโอที่โพสต์ลงแพลตฟอร์มออนไลน์ของบุคคลนั้นๆ แล้วใช้ AI ทำการเลียนแบบเสียง ได้ภายใน 3 วินาที จากนั้นก็จะเข้าถึงข้อมูลเพื่อนและสมาชิกในครอบครัวของบุคคล เพื่อใช้เสียงที่โคลนด้วย AI นี้โทรศัพท์ไปขอเงิน

ซึ่ง Starling เผยว่า การหลอกลวงประเภทนี้ สร้างความเสียหายกว่าหลายล้านเหรียญ และส่งผลกระทบต่อคนมาแล้วหลายร้อยล้านคน โดยจากการสํารวจคนมากกว่า 3,000 คน พบว่า มีผู้ตอบแบบสอบถามมากกว่า 1 ใน 4 ตกเป็นเป้าหมายของการหลอกลวงด้วยการโคลนเสียง AI ในช่วง 12 เดือนที่ผ่านมา

นอกจากนั้น การสํารวจยังแสดงให้เห็นว่า กว่า 46% ของผู้ตอบแบบสอบถาม ไม่ทราบว่ามีการหลอกลวงดังกล่าวอยู่ และ 8% จะส่งเงินมากเท่าที่เพื่อนหรือสมาชิกในครอบครัวร้องขอ แม้ว่าพวกเขาจะคิดว่าการโทรนั้นดูแปลกก็ตาม

Lisa Grahame หัวหน้าเจ้าหน้าที่รักษาความปลอดภัยข้อมูลของ Starling Bank กล่าวว่า ปัจจุบันผู้คนมักจะโพสต์คอนเทนต์ของตัวเองบนแพลตฟอร์มออนไลน์เป็นประจํา โดยไม่ได้คิดมาก่อนว่า จะกลายเป็นปัจจัยที่ทําให้พวกเขาเสี่ยงต่อการโจรกรรมออนไลน์มากขึ้น

เพราะในปัจจุบัน AI มีความก้าวหน้ามากขึ้นในการเลียนแบบเสียงของมนุษย์ นำมาซึ่งความกังวลที่เพิ่มขึ้นเกี่ยวกับอัตราการก่ออาชญากรรมที่เพิ่มขึ้น อาทิ AI กลายเป็นตัวช่วยเผยแพร่ข้อมูลผิดๆ รวมถึงการที่มิจฉาชีพหรืออาชญากร สามารถเข้าถึงบัญชีธนาคารของผู้คนได้โดยง่าย เป็นต้น 

การมีคำเฉพาะหรือคีย์เวิร์ดที่จําง่ายและแตกต่างจากรหัสผ่านอื่นๆ ที่ใช้เป็นประจำ ในการใช้ยืนยันตัวตนทางโทรศัพท์ กับบุคคลใกล้ชิด เช่น เพื่อน คนรัก รวมถึงครอบครัว ถือเป็นเรื่องที่ดีและอาจช่วยลดอัตราการโจรกรรมทางออนไลน์ให้น้อยลงได้

ทั้งนี้ เมื่อต้นปี 2024 ที่ผ่านมา OpenAI ผู้ผลิตแชทบอท AI ที่สร้าง ChatGPT ได้เปิดตัวเครื่องมือจําลองเสียง Voice Engine แต่ไม่ได้เผยแพร่สู่สาธารณ โดยบริษัทฯ อ้างถึงความปลอดภัยในการนำเสียงแปลงสังเคราะห์ไปใช้ในการก่ออาชญากรรมหรือใช้ในทางที่ผิด นั่นเอง

ที่มา : CNN