หลังจากที่เมื่อวานทาง OpenAI ได้เปิดตัวโมเดลปัญญาประดิษฐ์ (AI) รุ่นใหม่ GPT-4 Omni ที่มีจุดเด่นที่สามารถประมวลผลคำสั่งได้มากกว่า พูดคุยด้วยเสียงได้ สามารถวิเคราะห์สิ่งต่าง ๆ ผ่านวิดีโอได้ มาวันนี้ Google ก็แสดงวิสัยทัศน์ที่น่าทึ่งไม่แพ้กันเกี่ยวกับ AI จะมายกระดับการใช้งานของผู้คนหลายพันล้านคน ที่ใช้งาน Google ทุกวันได้อย่างไรบ้าง
ภายในงาน Google I/O ที่จัดเป็นประจำทุกปี นำโดย Sundar Pichai ซีอีโอของ Google ที่จะมาอัปเดตถึงเทคโนโลยี AI ของ Google ในปีนี้เริ่มจาก Gemini 1.5 Pro ที่อัปเกรดให้รับข้อมูลได้ 1 ล้าน Tokens (หนังสือประมาณ 1,500 หน้า) รองรับ 35 ภาษา ถือว่า Gemini 1.5 Pro มีขนาดของ Context Window ที่ใหญ่ที่สุดในบรรดา LLM ที่เปิดให้บริการแก่ผู้ใช้ทั่วไป
ส่งผลให้ผู้ใช้สามารถใช้ภาษาได้อย่าง เป็นธรรมชาติหรือตรงประเด็นมากขึ้น และให้คำตอบในรูปแบบต่าง ๆ เช่น ผลลัพธ์เชิงลึกหรือสรุป นอกจากนี้ยังสามารถให้คำแนะนำที่ตรงประเด็น เช่น แนะนำร้านอาหารที่เหมาะกับเด็กในบางพื้นที่
อีกความสามารถใหม่ที่อัปเกรดขึ้นก็คือ สามารถรับอินพุตประเภทต่าง ๆ ได้หลากหลายขึ้น ไม่ว่าจะเป็นการรับข้อความ, คำสั่งเสียง หรือรูปภาพ อีกทั้งยังสามารถอัปโหลดไฟล์เอกสาร Doc, PDF ขึ้นบน Gemini Advanced เพื่อให้ช่วยวิเคราะห์ข้อมูลต่าง ๆ ในไฟล์ นอกจากนี้ Gemini 1.5 Pro สามารถสรุปอีเมลล่าสุดทั้งหมดได้จากการ วิเคราะห์ไฟล์แนบภายในอีเมล
นอกจากนี้ ยังมีฟีเจอร์ใหม่ที่เรียกว่า Gem บน Gemini เป็นฟีเจอร์ใหม่ที่ช่วยให้ผู้ใช้สามารถสร้าง Gemini เวอร์ชั่นที่เรากำหนดเองได้ เช่น การสร้าง Gem เพื่อช่วยวางแผนการออกกำลังกาย เป็นต้น
ที่น่าสนใจคือ ภายในปีนี้ Google จะรวมฟังก์ชัน AI เข้ากับสมาร์ทโฟนมากขึ้น เช่น ผู้ใช้จะสามารถลากและวางรูปภาพที่สร้างโดย AI ลงใน Google Messages และ Gmail และถามคำถามเกี่ยวกับวิดีโอ YouTube และ PDF บนอุปกรณ์ Android ได้ นอกจากนี้ Google มีแผนจะเพิ่มเครื่องมือใหม่สำหรับ Android จะช่วย ตรวจจับกิจกรรมที่น่าสงสัยในระหว่างการโทร ซึ่งอาจเป็นมิจฉาชีพ
อีกสิ่งที่ Google กำลังทำเพิ่มเติมก็คือ การป้องกันเพื่อลดการใช้งานในทางที่ผิด ที่อาจเกิดขึ้น โดย Google กำลังขยายฟีเจอร์ SynthID ที่มีอยู่เพื่อตรวจจับเนื้อหาที่สร้างโดย AI เมื่อปีที่แล้ว โดยเครื่องมือนี้เพิ่มลายน้ำให้กับภาพและเสียงที่สร้างโดย AI