ล้ำไปอีกขั้น ‘เอไอเอส’ พัฒนาเอไอวิเคราะห์ ‘อารมณ์’ จากเสียงพูดภาษาไทย


เป็นที่รู้กันว่า ‘เอไอเอส’ ต้องการจะก้าวข้ามจากบริษัทผู้ให้บริการด้านโทรคมนาคม เพื่อเป็น ‘ดิจิทัล ไลฟ์ เซอร์วิส โพรวายเดอร์’ ดังนั้น เราจะเห็น ‘ธุรกิจใหม่’ ที่เกิดจากนวัตกรรมต่าง ๆ อย่างต่อเนื่องไม่ว่าจะเป็นธุรกิจคนรุ่นใหม่อย่าง ‘อีสปอร์ต’ หรือธุรกิจ ‘ประกันภัย’ ที่ใส่นวัตกรรมอินชัวร์เทคไปด้วย และเอไอเอสก็ยังไม่หยุดแค่นี้ ยังมีการทดลองคิดค้นนวัตกรรมใหม่ ๆ มากมาย ล่าสุดก็คือ พัฒนา AI จับอารมณ์และความรู้สึกจากเสียงภาษาไทย ซึ่งจะเป็นยังไงไปดูกัน

ใช้เอไอฟังเสียงจับอารมณ์

ทีมวิจัย เอไอเอส ได้ร่วมกับสถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch) เป็นเวลา 2 ปี ในการพัฒนาชุดข้อมูล (Dataset) จำแนกอารมณ์จากเสียงพูดภาษาไทย (Speech Emotion Recognition หรือ THAI SER) ได้เป็นครั้งแรกของโลก โดยเอไอเอสเก็บตัวอย่างเสียงพูดภาษาไทยจากคน 200 คน (เป็นผู้ชาย 87 คน ผู้หญิง 113 คน) ซึ่งเป็นบทสนทนาทั่ว ๆ ไปในชีวิตประจำวัน มีความยาวตัวอย่างเสียงทั้งสิ้น 40 ชั่วโมงหรือ 28,000 ประโยค ถือว่ายาวเป็นอันดับ 3 ของโลก

ปัจจุบัน สามารถจำแนกอารมณ์จากเสียงได้ 5 อารมณ์ ได้แก่ โกรธ / เศร้า / สุข / หงุดหงิด และปกติ โดยข้อมูลชุดนี้ สามารถนำไปต่อยอดในการวิเคราะห์อารมณ์เสียงลูกค้า โดยมีความแม่นยำอยู่ที่ 70% และมีความพร้อมที่จะใช้งานสูงถึง 80% ส่วนที่เหลืออีก 20% เพื่อให้แบบจำลองพื้นฐาน มีผลการวิเคราะห์ที่ความแม่นยำสูงขึ้น และพร้อมใช้งานในสภาพแวดล้อมการทำงานจริงขององค์กรต่าง ๆ ที่จะต้องพัฒนาตามแต่ละบริบทต่อไป

“เอไอตัวนี้ไม่ใช่แค่เข้าใจลูกค้า แต่ยังใช้เพื่อคนในองค์กรเอไอเอสด้วย อย่างคอลเซ็นเตอร์ที่ต้องรับสายลูกค้าจำนวนมาก ก็อาจทำให้เกิดความเครียดได้ ซึ่งเราก็จะช่วยพนักงานให้ไปเบรกได้ เพิ่มประสิทธิภาพในการทำงานได้ดียิ่งขึ้น”

ตัวอย่างของการนำเทคโนโลยี ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER ไปใช้งานจริง ได้แก่

1. การวิเคราะห์อารมณ์ของลูกค้า จาก ‘เสียงพูด’

2. การจัดลำดับการให้บริการลูกค้า จาก ‘อารมณ์’ ของลูกค้า

3. มอบหมายสายลูกค้าให้กับ CSR ตามความสามารถในการรับมืออารมณ์ต่าง ๆ

4. ฝึกสอน และเตรียมความพร้อมให้กับ CSR ในการปฏิบัติงานจริง

5. ช่วยเพิ่มความสามารถในการเข้าใจสถานการณ์ และเพิ่มโอกาสในการปิดการขาย

ไม่หวง พร้อมให้นำไปต่อยอด

ทั้งนี้ เอไอเอสได้เปิดให้กลุ่ม Startup, ผู้ประกอบการ SME, ผู้ให้บริการ และองค์กรต่าง ๆ เข้ามาศึกษาข้อมูลเพิ่มเติม และนำแพลตฟอร์ม THAI SER ไปต่อยอดในการออกแบบแอปพลิเคชันหรือโซลูชั่นต่าง ๆ ที่รองรับ AI ภาษาไทย โดยไม่เสียค่าใช้จ่าย หรืออยากจับมือกับเอไอเอสในการพัฒนาต่อยอดก็ได้ โดยเอไอเอสมีบิสซิเนสโมเดลที่หลากหลายพร้อมรองรับทั้งร่วมเป็นพาร์ทเนอร์กับเอไอเอส สำหรับการพัฒนาโซลูชั่น แบ่งรายได้กัน หรือ Co-create

นอกจากนี้ เอไอเอสได้ร่วมกับ NIA สร้าง ‘ARI’ (AI, Robotic, Immersive Innovation District) เพื่อสร้าง Open Corpus สำหรับให้นักพัฒนานำ Corpus หรือ ข้อมูลเสียงนำไปต่อยอดได้ โดยที่ Corpus ของเอไอเอสไม่หลุดไปที่บริษัทอื่น เพราะในวงการเอไอ Corpus ถือเป็นสมบัติที่ต้องเก็บไว้

“ต้นเหตุที่ไอเอในไทยไม่สามารถทำงานร่วมกันได้ เพราะแต่ละองค์กรไม่ยอมเปิด Corpus ดังนั้น ARI จะช่วยให้เอไอของบริษัทอื่นเข้าไปเทรนด์บน Corpus ของบริษัทนั้น ๆ โดยที่บริษัทเหล่านั้นไม่ต้องเสียทรัพยากร Corpus ซึ่งถ้าสำเร็จจะทำให้การพัฒนาเอไอในไทยก้าวหน้าอย่างก้าวกระโดด” อราคิน รักษ์จิตตาโภค หัวหน้าฝ่ายงานขับเคลื่อนนวัตกรรม เอไอเอส

ทำไมเอไอสำคัญนัก?

ซันเจย์ แอนดรูว์ โทมัส หัวหน้าคณะผู้บริหารด้านเทคโนโลยีสารสนเทศ เอไอเอส กล่าวว่า ปัจจุบัน เทคโนโลยี AI ด้านภาษาถูกนำมาใช้งานอย่างกว้างขวางมากขึ้น ซึ่งถือเป็นประโยชน์อย่างมหาศาลในเรื่องการสร้างความเข้าใจลูกค้าในมุมมองด้านอารมณ์และความรู้สึก ซึ่งจะช่วยให้ภาคธุรกิจสามารถประเมินสภาวะทางอารมณ์ของลูกค้า เพื่อนำไปใช้เป็นข้อมูลในการเพิ่มประสิทธิภาพด้านงานบริการได้ดียิ่งขึ้น โดยพิจารณาจาก Customer insight ด้านอารมณ์ของลูกค้า ที่มาจากการให้บริการในด้านต่าง ๆ ซึ่งการนำเทคโนโลยีที่พ่วงด้วย “เอไอ” มาใช้ เกิดข้อได้เปรียบเมื่อเทียบกับบริษัทที่ไม่มีถึง 4 เท่า

นอกจากนี้ ยังถือเป็นจุดเริ่มต้นของการก่อร่าง ecosystem ในแวดวง Deep Tech ในประเทศไทย ให้เติบโตได้อย่างแข็งแกร่งทัดเทียมกับนานาชาติ ช่วยสร้างนวัตกรรมที่เกิดประโยชน์ต่อคนไทยทุกภาคส่วนอีกด้วย

สำหรับชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER พร้อมแล้วที่จะให้นักพัฒนา, ทั้งสิ้น โดยเข้าไปที่เว็บไซต์ https://airesearch.in.th ได้แล้วตั้งแต่วันนี้