قضايا شبابية - مقالاتمقالات

الذكاء الاصطناعي العاطفي

الذكاء الاصطناعي العاطفي (Emotional Artificial Intelligence)، ويُعرف أيضًا باسم الحوسبة العاطفية (Affective Computing)، والذكاء الاصطناعي المتمركز حول الإنسان (Human Centric Artificial Intelligence)، والذكاء الاصطناعي الاجتماعي (Social Artificial Intelligence)، مفهوم جديد نسبيًا ما زالت تقنياته في طور التطوير، وهو أحد مجالات علوم الحاسوب الهادفة إلى تطوير آلات قادرة على فهم المشاعر البشرية. يشير المفهوم ببساطة إلى اكتشاف وبرمجة المشاعر الإنسانية بُغية تحسين الذكاء الاصطناعي، وتوسيع نطاق استخدامه، حتى لا يقتصر أداء الروبوتات على تحليل الجوانب المعرفية (المنطقية) والتفاعل معها فحسب، بل والامتداد بالتحليل والتفاعل إلى الجوانب العاطفية للتواصل البشري.

لا شك أن التعاطف (Empathy) مفهوم معقد تتعدد أبعاده ومكوناته، بدايةً من المكونات الوجدانية، ومرورًا بالمكونات الإدراكية والثقافية والسلوكية، ووصولًا إلى المكونات الأخلاقية والقانونية. لكن على المستوى الأساسي، يمكن تعريف التعاطف (أو التقمص الوجداني، أو التشاعُر) بأنه القدرة على فهم الحالات العاطفية لشخصٍ آخر ضمن إطاره المرجعي الخاص، أي القدرة على أن يضع الشخص نفسه مكان شخصٍ آخر وتمثُل حالته الوجدانية. فإذا تمكنت الآلات من بلوغ هذا المستوى من الفهم، أمكنها خدمتنا خدمة أفضل وأكثر تأثيرًا، لا سيما  في مجالات مثل الرعاية الصحية، والتعليم عن بُعد، والإعلانات، والخدمات الصوتية، والألعاب، والواقع الافتراضي المُعزز رقميًا، إلخ.

قد لا تكون الآلات الذكية عاطفيًا بعيدة المنال مثلما تبدو للوهلة الأولى، فعلى مدى العقود القليلة الماضية، أصبح الذكاء الاصطناعي مُتمكنًا بتزايد في قراءة ردود الفعل العاطفية لدى البشر، وثمة توقعات بأن تصل استثمارات سوق الحوسبة العاطفية العالمي بحلول سنة 2025 إلى أكثر من 174 مليار دولار. لكن القراءة في الحقيقة لا تُطابق الفهم، ولن تتمكن الآلات الذكية من فهمنا ما لم تخض تجربة المشاعر مثلما نختبرها جميعًا، وإلا كنا نعزي إليها خواصًا لا تتمتع بها حقًا. لقد نشأ الجيل الأحدث من أنظمة الذكاء الاصطناعي بفضل زيادة البيانات المتاحة لأجهزة الحاسوب، بالإضافة إلى تحسين قوة هذه الأجهزة في المعالجة، وعندما تتمكن الحواسيب من قراءة المشاعر عن طريق تحليل البيانات، بما في ذلك تعبيرات الوجه، والإيماءات، ونبرات الصوت، وقوة الضغطات على لوحة المفاتيح، إذ تُحدد الحالة العاطفية للشخص وتستجيب لها، فسوف تسمح هذه القدرة للبشر والآلات بالتفاعل تفاعلًا أكثر طبيعية، قد تكون مماثلة جدًا لآليات التفاعل بين البشر.

تاريخيًا، بدأت الحوسبة العاطفية خطواتها الأولى سنة 1995 في معمل وسائط معهد ماساتشوستس للتكنولوجيا (MIT Media Lab)، عندما جمعت الكاميرات والميكروفونات وأجهزة الاستشعار الفسيولوجية استجابات عاطفية لتحديد المشاعر، وقد أدى هذا العمل المبكر إلى نشر عالمة الحاسوب الأمريكية روزاليند بيكارد (Rosalind Picard) ورقتها البحثية الأولى في هذا الصدد تحت عنوان “الحوسبة العاطفية” (Affective Computing). ومنذ ذلك الحين أدرك الباحثون أن مهارة الآلة في تقييم البيانات يُمكن أن تُسهم في التعرف على الفروق العاطفية الدقيقة بين البشر والتفاعل معها.

اضغط على الاعلان لو أعجبك

كيف يعمل الذكاء الاصطناعي العاطفي؟

باستخدام مزيج من الرؤية الحاسوبية، وأجهزة الاستشعار، والكاميرات، وأطنان من بيانات العالم الفعلي، وعلوم التخاطب، وخوارزميات التعلم العميق، تجمع أنظمة الذكاء العاطفي الاصطناعي البيانات، ثم تعالجها وتقارنها بنقاط البيانات الأخرى التي تحدد المشاعر الرئيسية مثل الخوف والمتعة والحزن والسعادة وغيرها. وما إن تحدد المشاعر المناسبة، يفسر الجهاز العاطفة وما قد تعنيه في كل حالة. ومع نمو قاعدة بيانات المشاعر، تتحسن الخوارزميات في تحديد الفروق الدقيقة في التواصل البشري العاطفي.

يشير إريك برينجولفسون (Erik Brynjolfsson)، الأستاذ في معهد ماساتشوستس للتكنولوجيا، إلى أن الآلات الذكية جيدة للغاية في تحليل كميات كبيرة من البيانات، يمكنها الاستماع للأصوات وتمييز طبقاتها، والتعرف على متى ترتبط هذه الطبقة أو تلك بالتوتر أو الغضب أو السعادة، ويمكنها تحليل الصور والتقاط التفاصيل الدقيقة في التعبيرات المختلفة على وجوه البشر، التي قد تحدث بسرعة كبيرة جدًا فيتعذر على الشخص التعرف عليها. لدينا كثرة من الخلايا العصبية في أدمغتنا مُخصصة للتفاعلات الاجتماعية منذ الولادة، ومن المنطقي استخدام التكنولوجيا للتواصل مع أدمغتنا الاجتماعية، وليس فقط أدمغتنا التحليلية! ومثلما يمكن للآلات فهم الكلام والتواصل به، يُمكنها أيضًا أن تتواصل مع الفكاهة وأنواع أخرى من المشاعر. والآلات التي يمكنها التحدث بهذه اللغة –لغة المشاعر– سيكون لها تفاعلات أفضل وأكثر فاعلية معنا. ويؤكد برينجولفسون على أهمية المضي قُدمًا في تطوير الذكاء الاصطناعي العاطفي، قائلًا: “إنه لأمر رائع أننا أحرزنا بعض التقدم، هذا شيءٌ لم يكن متاحًا قبل عشرين أو ثلاثين سنة، لكنه الآن مطروح بقوة على طاولة البحث”.

تصنيفات ملامح الوجه

يُعد الوجه البشري نموذجًا مثاليًا لتطبيقات الذكاء الاصطناعي العاطفي، ذلك أنه يُظهر مواقفنا ونوايانا وحالاتنا المزاجية، بل ويعكس هويتنا في بعض الأحيان. وعلى الرغم من أن كلًا منا يبدو مختلفًا عن الآخرين، فإن وجوهنا تعمل عادةً بالطريقة ذاتها.

ثمة ثلاث وأربعون عضلة تُعبر عن المشاعر في وجه الإنسان، تؤدي إلى ما يقرب من عشرة آلاف تعبير مختلف للوجه. وقد طوَّر الباحثون أخيرًا ذكاءً اصطناعيًا قادرًا على معرفة ما إذا كان الشخص مجرمًا فقط بالنظر إلى ملامح وجهه. طُور هذا النظام باستخدام قاعدة بيانات لصور الهوية الصينية، وكانت النتائج مذهلة، إذ صنف الذكاء الاصطناعي عن طريق الخطأ الأبرياء مجرمين في ما يقرب من 6٪ فقط من الحالات، في حين تمكن بنجاح من التعرف على ما يقرب من 83٪ من المجرمين، وهو ما يؤدي إلى دقة إجمالية مذهلة تصل إلى 90٪ تقريبًا.

اعتمد النظام على مقاربة التعلم العميق (Deep Learning)، إحدى وسائل الذكاء الاصطناعي لتعليم الحواسيب معالجة البيانات معالجة مستوحاة من الدماغ البشري. تتعرف نماذج التعلم العميق على الأنماط المعقدة في الصور والنصوص والأصوات والبيانات الأخرى لإنتاج رؤى وتنبؤات دقيقة. وبالتعلم العميق، إلى جانب نموذج دوران الوجه (Face Rotation Model)، يمكن للذكاء الاصطناعي أن يتحقق مما إذا كانت صورتان للوجه تمثلان الفرد ذاته حتى لو تغيرت الإضاءة أو زاوية التقاط الصورة.

اضغط على الاعلان لو أعجبك

نظرًا لنجاح التعلم العميق، فليس من المستغرب أن تتمكن الشبكات العصبية الاصطناعية من التمييز بين المجرمين وغير المجرمين (إذا كانت هناك بالفعل خصائص للوجه يمكن أن تميز بين الفريقين). وقد اقترح أحد البحوث ثلاث خصائص تمييزية: الأولى الزاوية بين طرف الأنف وزوايا الفم، التي كانت أصغر لدى المجرمين بنسبة 19.6٪ في المتوسط، والثانية انحناءة الشفة العليا، وكانت أكبر بنسبة 23.4٪ لدى المجرمين، والثالثة المسافة بين الزوايا الداخلية للعينين، وكانت أضيق بنسبة 5.6٪ في المتوسط.

قد يبدو هذا التحليل للوهلة الأولى كأنه إحياء للآراء القديمة القائلة إن بإمكاننا التعرف على المجرمين بالسمات الجسدية. ومع ذلك، قد لا تكون القصة كاملة، لأن تكنولوجيتنا في هذا الصدد لم تصل بعد إلى مرحلة النُضج بما فيه الكفاية، وما زالت تواجه مشاكل في اكتشاف الوجوه الصغيرة، والوجوه ذات اللحى الكبيرة أو ذات الشوارب، وتعبيرات الوجه لشخص يركض، وما إلى ذلك. وإذ إنه لا يتوافر حاليًا سوى عدد قليل من الصور النموذجية، فلا يُمكننا تعميم استنتاجاتنا على قاعدة البيانات بأكملها.

قوة الحوسبة العاطفية

ليست المرة الوحيدة التي تمكن فيها الحاسوب من التعرف على المشاعر البشرية، بل إن محاولات أخرى تؤكد قوة الحوسبة العاطفية، منها تلك التي حلل فيها الباحثون الوجه بهدف اكتشاف الطلاب المتعثرين في جلسات دروس الحاسوب، إذ دربوا الذكاء الاصطناعي على معرفة المستويات المختلفة من المشاركة التفاعلية والإحباط، ومن ثم معرفة متى يجد الطلاب العمل سهلًا جدًا أو صعبًا للغاية، وتلك خطوة إيجابية نحو تحسين تجربة التعلم عبر المنصات الإلكترونية. كذلك استُخدم الذكاء الاصطناعي لاكتشاف المشاعر بناءً على طبقة الصوت، وهو ما أصدرته شركة بيوند فيربال BeyondVerbal الإسرائيلية بتطبيق يُحلل طبقات الصوت ويبحث عن أنماط مُحددة في الكيفية التي يتحدث بها الناس. وتزعم الشركة أنها قادرة على تحديد طبيعة ونوعية المشاعر البشرية بنسبة 80٪، الأمر الذي قد يُسهم مستقبلًا في تحديد مشاعر المصابين بالتوحد (Autism) أو المصابين بالخرف (Dementia).

من جهتها تسعى شركة سوني (Sony) اليابانية إلى تطوير روبوت قادر على تكوين روابط عاطفية مع البشر. ومع أنه لا توجد معلومات كافية حول الكيفية التي يعتزمون تحقيق ذلك بها، أو حول تحديد ما الذي سيفعله الروبوت بالضبط، فقد ذكر الباحثون بها أنهم يسعون إلى دمج الأجهزة والخدمات لتوفير تجارب مقنعة عاطفيًا. ومع ذلك، ما زال من الصعب على الذكاء الاصطناعي تعلم كافة الموضوعات الشخصية المرتبطة بالعواطف والمشاعر، ويرجع ذلك جزئيًا إلى أنه قد لا يتمكن من الوصول إلى بيانات جيدة كافية لتحليلها بموضوعية. من ذلك مثلًا: هل بإمكان الذكاء الاصطناعي أن يفهم السخرية؟ قد تكون جملة معينة ساخرة عندما نتحدث بها في سياق ما، لكن ليست كذلك في سياق آخر!

العقل والعاطفة

من جهة أخرى، نحن نعرف كثيرًا عن التفكير، ويمكننا وصف كيفية توصلنا إلى قرارات عقلانية، وكتابة القواعد، وتحويل هذه القواعد إلى رموز. لكن العواطف على العكس من ذلك إرثٌ تطوري غامض، وليست مجرد سمة للعقل يمكن تنفيذها عن طريق التصميم والبرمجة، فلكي نُبرمج شيئًا ما، لا نحتاج فقط إلى معرفة كيفية عمله، بل إلى معرفة الهدف منه. العقل له أهداف، لكن العواطف ليست كذلك.

اضغط على الاعلان لو أعجبك

في تجربة أجريت سنة 2015، تمكن بعض الباحثين بجامعة بانجور (Bangor University) البريطانية من اختبار هذا، إذ طُلب من المتحدثين الأصليين للغة الماندرين الصينية (Mandarin Chinese)؛ اللغة التي يتحدث بها الصينيون في المناطق الشمالية الغربية والجنوبية الغربية، أن يلعبوا لعبة الحظ مقابل المال، وفي كل جولة كان عليهم أن يأخذوا أو يتركوا رهانًا مقترحًا معروضًا على الشاشة (على سبيل المثال: فرصة 50٪ للفوز بـ20 نقطة، وفرصة 50٪ بخسارة 100 نقطة). افترض القائمون على التجربة أن إعطاء التغذية الراجعة لمن خضعوا للتجربة بلغتهم الأم سيكون أكثر عاطفية لهم، ومن ثَم يقودهم إلى التصرف باختلاف، مقارنةً بالوقت الذي يتلقون فيه التعليقات بلغتهم الثانية: الإنجليزية. وقد أظهرت التجربة أنهم عندما تلقوا ردود فعل إيجابية باللغة الصينية الأصلية، كانوا أكثر عرضة بنسبة 10٪ للمراهنة في الجولة التالية بغض النظر عن المخاطر، وهو ما يؤكد أن العواطف تؤثر على التفكير، فهل بإمكاننا إذن تغيير منطق الحاسوب بمشاعره؟ ربما كانت الإجابة المحتملة حتى الآن هي النفي، فلكي نبني ذكاءً اصطناعيًا عاطفيًا عامًا علينا أن نُبرمج آلة تشعر وتأمل وتخاف وتفرح وتحزن وتُحب وتكره، إلخ، ما يعني بث الحياة في الآلة، وهو أمرٌ يتجاوز نطاق قدراتنا!

أخلاقيات الذكاء الاصطناعي العاطفي

تتضمن تقنيات تطوير الذكاء الاصطناعي العاطفي مخاطر ومشكلات أخلاقية، هل من الصواب مثلًا السماح لمريض الخرف بالاعتماد على رفيق آلي يتسم بالذكاء، ويبدو كأنه يتمتع بحياة عاطفية في حين أنه ليس كذلك؟ وهل يمكننا إدانة شخص ما بناءً على قرار الذكاء الاصطناعي بتصنيفه أنه مذنب؟

الحق أنه عندما يتدخل الذكاء الاصطناعي في المشاعر الإنسانية، فإن كثيرًا من الإنذارات يمكن إطلاقها بتفهم، مثل رد فعل مؤداه أنه إذا تمكنت الآلات من فهم المشاعر، فبإمكانها اكتساب الإحساس، وربما التلاعب بمشاعرنا. هذا من جهة، ومن جهة أخرى تتطور التكنولوجيا والحوسبة بسرعة مقارنة بالتشريعات الحكومية، لذا قد تظهر فجوات تنظيرية: أخلاقية وسياسية وقانونية، هذا هو الموضع الذي تلتقي فيه الفلسفة بالعلم على طاولة الساسة وفي رُدهات المؤسسات المعنية. يكتسب هذا اللقاء أهميته من كونه يُساعد بلا شك في تطوير الأخلاقيات المهنية اللازمة لتعزيز ثقافة إيجابية حول الذكاء الاصطناعي.

يُعد التحيز أيضًا مصدر قلق آخر لمجتمع الذكاء الاصطناعي، فإذا كانت مجموعات البيانات منحازة تجاه نوع معين من الشعوب، فلن يكون الذكاء الاصطناعي موثوقًا به عندما نستقرئه على عدد كبير من السكان من قاراتٍ وأقطارٍ مختلفة. لقد درّبت كثرةٌ من جهود جمع البيانات الذكاءَ الاصطناعي على أنواع معينة من الأشخاص (أولئك الذين تطوعوا للتجارب، أو كان بإمكانهم تحمل تكلفة منتجات معينة)، فهل سيتنبأ الذكاء الاصطناعي بثقة بمشاعر الأشخاص الذين ليسوا ضمن هذه الفئة؟ هذه مشكلة صعبة ومُلحة للذكاء الاصطناعي بصفة عامة، وإن كانت جهود الباحثين في هذا المجال مستمرة جديًا لوضع حلولٍ لها. وحتى اللحظة التي يستطيعون فيها ذلك، إذ إن العواطف تُمثل أجزاءً رئيسية من ذكاء الإنسان، سيظل الذكاء الاصطناعي غير مكتمل!

مقالات ذات صلة: 

اضغط على الاعلان لو أعجبك

هل نعيش عصر الإلحاد والفوضى الأخلاقية؟!

الخلود الرقمي

هل تفكر الحواسيب والآلات؟

* تنويه: الأفكار المذكورة في المقال لا تعبر بالضرورة عن رأي الموقع.

_________________________________

لمتابعة قناة اليوتيوب لأكاديمية بالعقل نبدأ، اضغط هنا

لقراءة المزيد من المقالات، اضغط هنا

أ. د. صلاح عثمان

أستاذ المنطق وفلسفة العلم – رئيس قسم الفلسفة – كلية الآداب – جامعة المنوفية

مقالات ذات صلة