أحدثت جوجل طفرة جديدة في عالم الذكاء الاصطناعي بإطلاقها نموذج “باليجيما 2” (PaliGemma 2) الذي يتيح التعرف على المشاعر البشرية من خلال قراءة ملامح الوجه في الصور، وهذه التقنية تعد خطوة متقدمة نحو تطوير الذكاء الاصطناعي القادر على تقديم وصف دقيق للمشاعر والأفعال في الصور، ما يتجاوز قدرة النماذج التقليدية على التعرف فقط على الأجسام والعناصر الموجودة في الصورة.
في تصريحات رسمية عبر مدونتها، أكدت جوجل أن “باليجيما 2” يعتمد على مجموعة نماذج “Gemma” المفتوحة التي طورتها الشركة، ويمثل تحديثاً مهماً في سلسلة “جيما 2″، ومع ذلك تظل خاصية قراءة المشاعر غير مفعلّة بشكل تلقائي عند إطلاق النموذج، بل تتطلب تعديلات إضافية لتفعيلها، ورغم ذلك يثير الخبراء والمختصون قلقاً كبيراً حول إطلاق هذه التقنية بشكل مفتوح، خاصة في ظل المخاوف المتعلقة بالتحيزات التي قد تؤثر على دقة قراءة المشاعر.
يعتقد العديد من الخبراء أن قدرة الذكاء الاصطناعي على تحديد المشاعر بشكل دقيق ما زالت محط شكوك، ساندرا واتشر، أستاذة أخلاقيات البيانات في معهد أكسفورد للإنترنت، عبّرت عن قلقها من فرضية أن التقنية يمكنها فعلاً “قراءة” مشاعر الأفراد من خلال ملامح وجوههم، معتبرة أن هذه التقنية تشبه إلى حد كبير محاولة التنبؤ بالمستقبل عبر استخدام “كرة سحرية”.
من جانب آخر، يرى مايك كوك، الباحث في “كلية كينجز بلندن”، أن التعرف على المشاعر البشرية ليس مسألة بسيطة، مشيراً إلى أن المشاعر الإنسانية غالباً ما تكون معقدة ومبنية على عوامل متعددة، ما يجعل من الصعب تحديدها بدقة استناداً إلى ملامح الوجه فقط، كما أضاف أن محاولات الماضي لاستخراج مشاعر الأفراد من خلال ملامح الوجه لم تكن دائماً ناجحة أو موثوقة.
رغم أن جوجل أكدت أنها قامت باختبارات موسعة لتقليل هذه التحيزات، إلا أن غياب الشفافية حول المعايير التي استخدمتها الشركة جعل الكثير من الباحثين يشكّكون في فعالية تلك الاختبارات، كما أن بعض المعايير التي استخدمتها، مثل “FairFace”، والتي تهدف إلى قياس تنوع الصور من حيث الأعراق، تعرضت لانتقادات كونها تمثل مجموعة محدودة من العرقيات ولا تعكس التعددية الثقافية.
مع تزايد القلق حول استخدام هذه التقنية في سياقات حساسة، فقد أثارت أنظمة التعرف على المشاعر غضب العديد من الجهات التنظيمية في الخارج، فعلى سبيل المثال، يحظر “قانون الذكاء الاصطناعي” (AI Act) الذي وضعته الاتحاد الأوروبي، استخدام هذه الأنظمة في بيئات مثل المدارس وأماكن العمل، حيث يُعتقد أن استخدامها قد يشكل تهديداً لحقوق الأفراد في الخصوصية وحرية التعبير.
يستمر الجدل حول ما إذا كانت التقنيات الحديثة مثل “PaliGemma 2” قد تتسبب في تقليص حريات الأفراد، حيث يمكن أن تُستخدم هذه الأنظمة في مراقبة وتحليل سلوك الأفراد بطرق قد تكون ضارة على المدى الطويل.