
หนึ่งในฟังก์ชันที่เป็นไฮไลท์ของระบบ Apple Intelligence ที่โชว์ในงานเปิดตัว iPhone 16 ก็คือ Visual Intelligence ที่ให้ผู้ใช้สามารถกดปุ่มกล้อง (Camera Control) เพื่อให้ AI ช่วยประเมินภาพจากในกล้อง และแสดงข้อมูลของสิ่งที่ตรวจจับได้ ทำให้สามารถหาข้อมูลได้อย่างรวดเร็ว ใช้แปลภาษา สรุปข้อความ ไปจนถึงถาม ChatGPT ก็ยังได้ ซึ่งก็จะคล้ายๆ กับระบบ Google Lens ของฝั่ง Android แต่ที่ผ่านมาจะถูกจำกัดไว้ให้มีแค่ iPhone 16 ขึ้นไปเท่านั้นถึงจะสามารถใช้งานได้ ในขณะที่ iPhone 15 Pro ที่ก็สามารถใช้งาน Apple Intelligence ได้เหมือนกัน กลับไม่สามารถใช้ได้
ล่าสุดในการเปิดตัว iPhone 16e กลับกลายเป็นว่าตัวเครื่องก็สามารถเรียกใช้ Visual Intelligence ได้โดยไม่จำเป็นต้องมีปุ่มกล้อง แต่จะไปใช้การเรียกผ่านหน้า Control Center ที่มีปุ่มสั่งงานต่าง ๆ อยู่แทน รวมถึงสามารถตั้งค่าให้ปุ่ม Action ใช้ในการเรียกขึ้นมาก็ได้ด้วย
ซึ่งตรงนี้ ตัวแทนของ Apple ได้ให้ข้อมูลกับ John Gruber จากเว็บบล็อก Daring Fireball ว่า Apple มีแผนจะนำฟังก์ชัน Visual Intelligence มาใส่ให้ iPhone 15 Pro (และ Pro Max) ด้วยผ่านการอัปเดตซอฟต์แวร์ในอนาคต ซึ่งวิธีการเรียกใช้งานก็จะเหมือนกับใน iPhone 16e แต่ทั้งนี้ยังไม่มีการระบุว่าจะมาใน iOS 18.4 เลยหรือไม่ รวมถึงยังไม่ได้มีการระบุช่วงเวลาคร่าว ๆ ออกมา โดยถ้าอย่างเร็วที่สุด ก็อาจจะมาพร้อมกับ iOS 18.4 ที่น่าจะปล่อยอัปเดตทั่วไปภายในช่วงต้นเดือนเมษายนนี้
ที่มา: MacRumors