“أعين” في الأذنين.. “أبل” تكسر تقليد الصوت وتدمج الكاميرات في AirPods
مشروع سري من أبل لدمج المستشعرات البصرية في السماعات اللاسلكية

دخلت شركة “أبل” مراحل متقدمة في اختبار نماذج أولية من سماعات “AirPods” مدمجة بكاميرات منخفضة الدقة، في خطوة تهدف إلى تزويد أنظمة الذكاء الاصطناعي بقدرات بصرية تتيح لها فهم المحيط المادي للمستخدم. وبحسب تقرير لمارك غورمان في “بلومبرغ”، فإن المشروع الذي ظل قيد التطوير السري يهدف إلى تحويل السماعات من مجرد أداة صوتية إلى منصة معالجة سياقية قادرة على تحليل البيانات المرئية لدعم المساعدات الرقمية، دون الحاجة لالتقاط صور أو فيديوهات تقليدية.
التصميم الجديد، الذي قد يتطلب زيادة طفيفة في طول الأجزاء المتدلية (Stems) لاستيعاب المكونات الإضافية، يعتمد على مستشعرات بصرية تلتقط تفاصيل البيئة المحيطة لتقديم استجابات أكثر دقة بناءً على ما يراه المستخدم. يأتي هذا التوجه في وقت تتبنى فيه الشركة استراتيجية “الذكاء البصري” (Visual Intelligence)، وهي ذاتها التقنية التي بدأت تظهر في أحدث إصدارات “آيفون”، حيث تسعى كوبرتينو لدمج الحوسبة المحيطة في الروتين اليومي للمستخدم عبر أجهزة لا تتطلب التفاعل المباشر مع الشاشات.
أشارت تقارير سابقة للمحلل “مينغ تشي كو” إلى أن “أبل” بدأت تجاربها التقنية في هذا الاتجاه منذ عام 2024 باستخدام كاميرات تعمل بالأشعة تحت الحمراء، وهي تقنية مشابهة لنظام (Face ID) المستخدم في هواتفها، وذلك بهدف تعزيز تجربة الصوت المكاني وربطها بحركة الجسم والمكان.
تعتزم الشركة تزويد السماعات بمؤشر “LED” يضيء عند تفعيل العدسات لمعالجة مخاوف الخصوصية التي تلازم الأجهزة القابلة للارتداء والمزودة بكاميرات. وفي حين لا تزال الجدوى التجارية للمنتج خاضعة لنتائج الاختبارات النهائية، يشتعل السباق في السيليكون فالي بين “ميتا” التي تراهن على النظارات الذكية، وتحالف “OpenAI” مع المصمم السابق لأبل “جوني آيف” لتطوير جهاز ذكاء اصطناعي مستقل، ما يضع مشروع AirPods الجديد في قلب محاولات إنهاء هيمنة الهاتف الذكي التقليدي على المشهد التقني.









