أعلن تيم كوك، الرئيس التنفيذي لشركة أبل، خلال مكالمة نتائجها المالية القوية للربع الأول من السنة المالية 2026، أن ميزة "الذكاء البصري" (Visual Intelligence) هي الأكثر شيوعًا بين مستخدمي آيفون ضمن منظومة "Apple Intelligence"، متقدمة على بقية الميزات رغم التوقعات بتغير هذا الترتيب مع التحديثات القادمة للمساعد الصوتي سيري.
وتعمل الميزة، المشابهة في فكرتها لخدمة "Google Lens"، على تمكين المستخدم من التفاعل مع ما تلتقطه الكاميرا وتحويله إلى معلومات قابلة للاستخدام فورًا.
وهي متاحة في هواتف آيفون 16 و17 عبر زر تحكم الكاميرا، بينما يمكن ربطها بزر الإجراءات أو مركز التحكم في الطرازات الأحدث التي لا تحتوي على ذلك الزر الخاص، مثل آيفون 15 برو وآيفون 16e.
ويستطيع المستخدمون من خلال الميزة توجيه الكاميرا نحو مطعم لمعرفة ساعات عمله وقائمة طعامه، أو ترجمة النصوص وتلخيصها وقراءتها صوتيًا، بالإضافة إلى التعرف على المعالم السياحية والحيوانات والنباتات.
وأوضح كوك أن اعتماد مستخدمي آيفون على ميزات "Apple Intelligence" يشهد نموًا قويًا منذ إطلاق المبادرة عام 2024، حيث تقدم المنصة حاليًا مجموعة واسعة من الخدمات تشمل تلخيص الرسائل وصفحات الويب، وحجب المحتوى غير المرغوب فيه،
والكتابة بأساليب مختلفة، وإنشاء الصور وتحويلها إلى أساليب فنية متنوعة، والترجمة الفورية، وإنشاء رموز تعبيرية.
من جهة أخرى، يرى مراقبون أن تأخر أبل في تطوير مساعدها الصوتي سيري ليصبح مساعد محادثة متكاملًا قد أثر على تجربة "Apple Intelligence" وجعلها تبدو أقل طموحًا مقارنة بالمنافسين.
ومن المتوقع ألا يتحول سيري إلى مساعد ذكي متكامل يعتمد على المحادثات المتقدمة قبل إصدار "iOS 27".
في المقابل، سيحمل تحديث "iOS 26.4" قفزة نوعية حيث يتحول سيري إلى نموذج لغوي ضخم يسمح بمحادثات أكثر طبيعية وتعقيدًا، ويقدم إصدارًا شخصيًا قادرًا على الإجابة بناءً على محتوى المستخدم الخاص مثل الرسائل والصور.
وقد يضطر المستخدمون الراغبون في مساعد رقمي قادر على إجابات متعمقة حاليًا إلى الانتظار حتى إصدار "iOS 27" أو اللجوء إلى بدائل موجودة على هواتف أندرويد مثل مساعد جيميني من غوغل.
المحرر: عمار الكاتب