หนึ่งในฟังก์ชันที่เป็นไฮไลท์ของระบบ Apple Intelligence ที่โชว์ในงานเปิดตัว iPhone 16 ก็คือ Visual Intelligence ที่ให้ผู้ใช้สามารถกดปุ่มกล้อง (Camera Control) เพื่อให้ AI ช่วยประเมินภาพจากในกล้อง และแสดงข้อมูลของสิ่งที่ตรวจจับได้ ทำให้สามารถหาข้อมูลได้อย่างรวดเร็ว ใช้แปลภาษา สรุปข้อความ ไปจนถึงถาม ChatGPT ก็ยังได้ ซึ่งก็จะคล้ายๆ กับระบบ Google Lens ของฝั่ง Android แต่ที่ผ่านมาจะถูกจำกัดไว้ให้มีแค่ iPhone 16 ขึ้นไปเท่านั้นถึงจะสามารถใช้งานได้ ในขณะที่ iPhone 15 Pro ที่ก็สามารถใช้งาน Apple Intelligence ได้เหมือนกัน กลับไม่สามารถใช้ได้