Google เปิดตัว Gemini Intelligence บน Android สั่งงานข้ามแอป ทำงานแทนแค่ดีดนิ้ว

Google เปิดตัวฟีเจอร์ใหม่ Gemini Intelligence บน Android ซึ่งเป็นการนำความสามารถของ Gemini เข้ามาผสานกับการใช้งานมือถือให้ลึกขึ้นกว่าเดิม ไม่ได้เป็นแค่ผู้ช่วยสำหรับถามตอบ แต่เริ่มขยับไปสู่การช่วยทำงานหลายขั้นตอนแทนผู้ใช้ได้จริง แนวคิดของ Gemini Intelligence คือทำให้ Android ฉลาดขึ้น ทำงานแบบรู้ใจมากขึ้น และช่วยลดขั้นตอนจุกจิกในชีวิตประจำวัน เช่น สั่งงานข้ามแอป กรอกฟอร์ม สรุปข้อมูลบนเว็บ แปลงเสียงพูดเป็นข้อความที่อ่านง่าย และสร้างวิดเจ็ตเฉพาะตัวบนหน้าจอหลัก
Google ระบุว่า Gemini Intelligence จะทยอยเปิดตัวเป็นระยะ โดยเริ่มจากสมาร์ทโฟน Samsung Galaxy และ Google Pixel รุ่นล่าสุดในช่วงฤดูร้อนนี้ ก่อนขยายไปยังอุปกรณ์ Android อื่น ๆ เช่น นาฬิกา รถยนต์ แว่นตา และแล็ปท็อปในช่วงปลายปี

Gemini Intelligence มีดีอย่างไร
Gemini Intelligence คือชุดฟีเจอร์ AI ใหม่บน Android ที่ออกแบบมาเพื่อทำให้มือถือเข้าใจบริบทมากขึ้น และช่วยลงมือทำงานแทนผู้ใช้ในหลายสถานการณ์ โดยยังให้ผู้ใช้เป็นคนควบคุมขั้นตอนสำคัญ เช่น การยืนยันคำสั่งหรือการกดตกลงก่อนทำธุรกรรม จุดสำคัญคือ Gemini จะไม่ใช่แค่เครื่องมือถามคำถามอีกต่อไป แต่สามารถใช้ข้อมูลจากหน้าจอ รูปภาพ แอปต่าง ๆ และบริบทของผู้ใช้ เพื่อช่วยทำงานหลายขั้นตอนให้จบได้ในคำสั่งเดียว
1. สั่งงานข้ามแอปได้อัตโนมัติ
หนึ่งในฟีเจอร์หลักของ Gemini Intelligence คือความสามารถในการทำงานหลายขั้นตอนข้ามแอป เช่น การสั่งอาหาร เรียกรถ จองคลาสออกกำลังกาย หรือค้นหาข้อมูลจาก Gmail แล้วนำไปใช้งานต่อในแอปอื่น
ตัวอย่างเช่น หากมีรายการของที่ต้องซื้ออยู่ในแอปโน้ต ผู้ใช้สามารถกดปุ่มเปิด/ปิดเครื่องค้างไว้ แล้วสั่งให้ Gemini สร้างรถเข็นช็อปปิ้งจากรายการนั้นได้ทันที โดยไม่ต้องคัดลอกข้อความ สลับแอป หรือเลือกสินค้าทีละรายการเอง
อีกตัวอย่างคือ หากเห็นโบรชัวร์ท่องเที่ยวแล้วสนใจ ผู้ใช้สามารถถ่ายรูปและสั่ง Gemini ให้ค้นหาทัวร์ลักษณะเดียวกันบนแพลตฟอร์มจองทริป เช่น Expedia สำหรับจำนวนคนที่ต้องการได้ โดยระบบจะทำงานอยู่เบื้องหลังและแจ้งความคืบหน้าแบบเรียลไทม์

2. Gemini ใน Chrome ช่วยสรุปเว็บและทำงานแทนได้
ตั้งแต่ปลายเดือนมิถุนายนเป็นต้นไป อุปกรณ์ Android จะเริ่มได้ใช้งาน Gemini ใน Chrome ซึ่งช่วยให้การท่องเว็บฉลาดขึ้น เช่น ช่วยค้นคว้า สรุปข้อมูล และเปรียบเทียบรายละเอียดจากเว็บไซต์ต่าง ๆ
นอกจากการอ่านและสรุปข้อมูลแล้ว Google ยังระบุว่า Gemini ใน Chrome สามารถช่วยจัดการงานบางอย่างที่น่าเบื่อแทนผู้ใช้ได้ เช่น การนัดหมาย หรือการจองที่จอดรถ ทำให้ Chrome ไม่ได้เป็นเพียงเบราว์เซอร์ แต่เริ่มกลายเป็นผู้ช่วยทำงานบนเว็บมากขึ้น
3. Autofill ฉลาดขึ้น กรอกแบบฟอร์มได้ด้วยข้อมูลจากหลายแอป
ฟีเจอร์ Autofill with Google จะถูกยกระดับด้วย Personal Intelligence ของ Gemini จากเดิมที่ช่วยกรอกชื่อ ที่อยู่ หรือรหัสผ่าน มาเป็นระบบที่เข้าใจบริบทมากขึ้น และสามารถดึงข้อมูลที่เกี่ยวข้องจากแอปต่าง ๆ มาช่วยกรอกแบบฟอร์มที่ซับซ้อนได้
ฟีเจอร์นี้ออกแบบมาเพื่อลดความยุ่งยากบนหน้าจอมือถือ โดยเฉพาะเวลาต้องกรอกฟอร์มยาว ๆ เช่น ข้อมูลส่วนตัว รายละเอียดการจอง หรือเอกสารออนไลน์
อย่างไรก็ตาม Google ระบุว่าการเชื่อม Gemini เข้ากับ Autofill จะเป็นแบบสมัครใจ ผู้ใช้สามารถเลือกได้ว่าจะเปิดใช้งานหรือไม่ และสามารถเปิด-ปิดได้ทุกเมื่อจากการตั้งค่า

4. Rambler พูดมั่วแค่ไหน ก็เรียบเรียงเป็นข้อความสวยขึ้น
อีกฟีเจอร์ใหม่ที่น่าสนใจคือ Rambler บน Gboard ซึ่งถูกออกแบบมาเพื่อแก้ปัญหาเวลาพูดแล้วข้อความที่ถอดออกมาไม่สละสลวย เพราะการพูดจริงมักมีคำซ้ำ คำติดปาก หรือคำอย่าง “เอ่อ”, “อ่า”, “แบบว่า” ปะปนอยู่
Rambler จะช่วยจับใจความสำคัญจากสิ่งที่พูด แล้วเรียบเรียงใหม่ให้เป็นข้อความที่กระชับ อ่านง่าย และเป็นธรรมชาติมากขึ้น โดยผู้ใช้ไม่จำเป็นต้องคิดประโยคให้เป๊ะก่อนพูด
Google ระบุว่าเสียงจะถูกใช้เพื่อถอดความแบบเรียลไทม์เท่านั้น ไม่มีการจัดเก็บหรือบันทึกไว้ และ Rambler ยังรองรับการสลับภาษาภายในข้อความเดียว เหมาะกับผู้ใช้ที่พูดผสมหลายภาษาในชีวิตจริง

5. Create My Widget สร้างวิดเจ็ตเองได้
Google ยังเปิดตัวแนวคิด Generative UI ผ่านฟีเจอร์ Create My Widget ที่ให้ผู้ใช้สร้างวิดเจ็ตบนหน้าจอหลักได้เอง เพียงพิมพ์หรือพูดอธิบายสิ่งที่ต้องการ
ตัวอย่างเช่น หากเป็นคนชอบเตรียมอาหารล่วงหน้า สามารถสั่งให้ระบบสร้างวิดเจ็ตแนะนำเมนูโปรตีนสูง 3 เมนูต่อสัปดาห์ หรือหากเป็นนักปั่นจักรยาน ก็สามารถสร้างวิดเจ็ตสภาพอากาศที่แสดงเฉพาะความเร็วลมและโอกาสฝนตกได้
ฟีเจอร์นี้ทำให้หน้าจอหลักของ Android ปรับตามความต้องการของผู้ใช้ได้มากขึ้น ไม่ใช่จำกัดอยู่แค่วิดเจ็ตสำเร็จรูปที่แอปเตรียมไว้ให้เท่านั้น

6. UI ใหม่ต่อยอดจาก Material 3 Expressive
Gemini Intelligence ยังมาพร้อมภาษาการออกแบบใหม่ที่ต่อยอดจาก Material 3 Expressive โดย Google ระบุว่าการออกแบบใหม่นี้ไม่ได้เน้นแค่ความสวยงาม แต่ยังออกแบบแอนิเมชันและการโต้ตอบให้ช่วยลดสิ่งรบกวน เพื่อให้ผู้ใช้โฟกัสกับสิ่งที่กำลังทำอยู่ได้ดีขึ้น
นี่อาจเป็นสัญญาณว่า Android ในอนาคตจะไม่ได้เปลี่ยนแค่หน้าตา แต่จะใช้ AI เข้ามาปรับประสบการณ์ใช้งานให้เหมาะกับบริบทของผู้ใช้มากขึ้น

อุปกรณ์ไหนได้ใช้ก่อน?
Google ระบุว่า Gemini Intelligence จะเริ่มเปิดให้ใช้งานบนสมาร์ทโฟน Samsung Galaxy และ Google Pixel รุ่นล่าสุดในช่วงฤดูร้อนนี้ จากนั้นจะทยอยขยายไปยังอุปกรณ์ Android ประเภทอื่นในช่วงปลายปี
กลุ่มอุปกรณ์ที่จะตามมาไม่ได้มีแค่สมาร์ทโฟน แต่รวมถึง Wear OS, รถยนต์, แว่นตา และแล็ปท็อป ซึ่งสะท้อนว่า Google ต้องการให้ Gemini กลายเป็น AI ที่ทำงานข้ามอุปกรณ์ในระบบนิเวศ Android
เรื่องความเป็นส่วนตัว Google ว่าอย่างไร?
Google ย้ำว่า Gemini Intelligence ถูกออกแบบให้ผู้ใช้ยังเป็นผู้ควบคุมข้อมูลและการทำงาน โดยหลายฟีเจอร์ต้องได้รับการยืนยันจากผู้ใช้ในขั้นตอนสำคัญ เช่น การยืนยันคำสั่งสุดท้ายก่อนสั่งซื้อหรือดำเนินการบางอย่าง ในกรณีของ Autofill ที่เชื่อมกับ Gemini จะเป็นแบบเลือกเปิดใช้งานเอง ส่วน Rambler บน Gboard ระบุว่าเสียงถูกใช้เพื่อถอดความแบบเรียลไทม์เท่านั้น และไม่มีการจัดเก็บหรือบันทึกเสียงเอาไว้
แต่สุดท้ายในภาพรวมแล้ว Gemini Intelligence คือชุดฟีเจอร์ AI ใหม่บน Android ที่ Google เตรียมทยอยเปิดให้ใช้งาน โดยมีทั้งการสั่งงานข้ามแอปอัตโนมัติ, Gemini ใน Chrome, Autofill ที่ฉลาดขึ้น, Rambler บน Gboard, Create My Widget และ UI ใหม่ที่ออกแบบให้โฟกัสกับการใช้งานมากขึ้น ฟีเจอร์เหล่านี้จะเริ่มจาก Samsung Galaxy และ Google Pixel รุ่นล่าสุดในช่วงฤดูร้อนนี้ ก่อนขยายไปยังอุปกรณ์ Android อื่น ๆ ในอนาคต
หาก Google ทำให้ฟีเจอร์เหล่านี้ใช้งานได้จริงและลื่นพอในชีวิตประจำวัน Android ยุค Gemini Intelligence อาจไม่ใช่แค่ระบบปฏิบัติการมือถืออีกต่อไป แต่เป็นผู้ช่วยดิจิทัลที่ทำงานให้เราได้มากขึ้นแบบเห็นผลจริง
ดาวน์โหลดสนุกแอปฟรี



