หลังจ่าก Google เริ่มนำฟีเจอร์ใหม่ของ Gemini มาทดลองบนสมาร์ตโฟน Android โดยเพิ่มความสามารถที่เรียกว่า Screen Automation ให้กับโปรแกรมของ Google บางส่วนไปก่อนหน้านี้ แต่ล่าสุดกำลังจะเพิ่มทาเงลือกเพิ่มเติมโดยจะเปิด AI สามารถกดหน้าจอ เลือกเมนู หรือพิมพ์ข้อมูลในแอปต่าง ๆ แทนผู้ใช้ได้ เช่น การเรียกรถผ่าน Uber หรือสั่งอาหารผ่านบริการเดลิเวอรี
ชรายงานจาก 9to5Google ระบุว่าฟีเจอร์นี้ยังมีการจำกัดจำนวนครั้งในการใช้งานต่อวัน โดยแบ่งตามระดับสมาชิกของบริการ Google AI

จำนวนครั้งที่ใช้ Screen Automation ต่อวัน
| ระดับสมาชิก | ราคาโดยประมาณ | จำนวนครั้งต่อวัน |
|---|---|---|
| Free Account | - | 5 ครั้ง |
| Google AI Plus | $7.99 | 12 ครั้ง |
| Google AI Pro | $19.99 | 20 ครั้ง |
| Google AI Ultra | $249.99 | 120 ครั้ง |
Gemini จะทำงานผ่านหน้าต่างเสมือน (Virtual Window) บนสมาร์ตโฟน โดย AI จะวิเคราะห์หน้าจอและตัดสินใจว่าจะต้องเลื่อน แตะ หรือพิมพ์ข้อมูลอย่างไรเพื่อให้การทำงานสำเร็จ
เพื่อความปลอดภัย ผู้ใช้ยังคงต้องเป็นผู้ยืนยันขั้นตอนสำคัญด้วยตัวเอง เช่น การชำระเงิน โดย Gemini จะทำงานช่วยจนถึงขั้นตอนสุดท้ายเท่านั้น
สถานะการใช้งานในปัจจุบัน
- เริ่มทดสอบบน Galaxy S26 ในสหรัฐฯ และเกาหลีใต้
- คาดว่าจะขยายไปยัง Pixel 10 Series ในลำดับถัดไป
- แอปที่รองรับช่วงแรก ได้แก่ Uber, Lyft, GrubHub, DoorDash, Uber Eats และ Starbucks
แม้ฟีเจอร์นี้จะยังมีข้อจำกัดเรื่องจำนวนครั้งในการใช้งาน แต่ถือเป็นอีกก้าวสำคัญของ AI บนสมาร์ตโฟน ที่อาจทำให้อนาคตของ Android สามารถทำงานแทนผู้ใช้ได้มากขึ้น
