استناداً على الذكاء الاصمناعي.. ميزة ثورية من غوغل لقراءة المشاعر.. ما هي؟
أعلنت شركة غوغل عن تطوير ميزة غريبة لمجموعة نماذج الذكاء الاصطناعي الجديدة لديها (PaliGemma 2)، تسمح لها بالقدرة على “قراءة المشاعر”.
وتتميز المجموعة الجديدة بقدرتها على تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية، والإجابة على أسئلة حول الأشخاص الذين يراهم في الصور.
وبحسب إعلان غوغل، يُنشئ PaliGemma 2 تسميات توضيحية مفصلة وذات صلة بالسياق للصور، ويتجاوز التعرف البسيط على الكائنات لوصف الإجراءات والعواطف والسرد العام للمشهد.
بدورها، قالت غوغل إنها أجرت اختبارات واسعة النطاق لتقييم التحيزات الديموغرافية في PaliGemma 2، وسجلت مستويات منخفضة من “الكراهية والألفاظ النابية” مقارنة بمعايير الصناعة، لكن الشركة لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.
المعيار الوحيد الذي كشفت عنه غوغل هو FairFace، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص، ورغم قول الشركة إن PaliGemma 2 سجل نتائج جيدة على FairFace، لكن انتقد بعض الباحثين ذلك المعيار باعتباره مقياساً متحيزاً، مشيرين إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.
على الجانب الآخر، أعرب متخصصون في الذكاء الاصطناعي عن قلقهم من تلك الميزة، ففي تصريحات لموقع Tech crunch، قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت: “هذا أمر مقلق للغاية بالنسبة لي، أجد أنه من الصعب افتراض أننا نستطيع قراءة مشاعر الناس”.
في السياق ذاته، أوضح مايك كوك، زميل باحث في جامعة كينغز كوليدج لندن المتخصصة في الذكاء الاصطناعي، أن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة.
وأشار إلى أن أنظمة الكشف عن المشاعر أثارت حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر، إذ يحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر، باستثناء وكالات إنفاذ القانون.
وعليه، تتمثل أكبر مخاوف النماذج المفتوحة مثل PaliGemma 2 في إساءة استخدامها، مما قد يؤدي إلى ضرر حقيقي.