أنظمة الذكاء الاصطناعي تعجز عن فهم "ما بين السطور"

هسبيرس 0 تعليق ارسل طباعة تبليغ حذف

حققت أنظمة الذكاء الاصطناعي، في السنوات الأخيرة، تقدما كبيرا إلى درجة أنها تفوقت على الإنسان في مجالات عديدة، مثل الهندسة والطب وعلوم الفضاء؛ بل وألعاب الذكاء، مثل الشطرنج وخلافه، كما طرقت أنشطة إبداعية، مثل تأليف الشعر ورسم اللوحات الفنية.

وعلى الرغم من هذا التقدم الكبير وعلى الرغم من القدرات الحوسبية الفائقة ومليارات الدولارات التي أنفقتها شركات التكنولوجيا العالمية، فإن أنظمة الذكاء الاصطناعي لا تزال متأخرة عن البشر في فهم الإشارات الاجتماعية التي تعبر عن المغزى أو الدلالة الحقيقية للتفاعلات الإنسانية.. وبمعنى آخر، لا تستطيع هذه الأنظمة الذكية، حتى الآن، أن تفهم “ما بين السطور” عندما يتحدث البشر مع بعضهم البعض.

وحسب دراسة أجراها فريق بحثي بجامعة جون هوبكنز الأمريكية، طلب الباحثون من ثلاث مجموعات من المتطوعين مشاهدة مقاطع فيديو لا يزيد طول كل منها عن ثلاث ثوانٍ، وتقييم التفاعلات الاجتماعية بين الأشخاص الذين يظهرون في هذه المقاطع. وفي الوقت نفسه، تم تحليل المقاطع نفسها بواسطة أكثر من 350 منظومة للذكاء الاصطناعي متخصصة في مجالات تحليل اللغة والفيديو والصور بغرض فهم مدلول الإشارات الاجتماعية التي يقوم بها البشر في تلك المقاطع.

وأثبتت التجربة أن المتطوعين أنجزوا المهمة المطلوبة بسهولة ويسر؛ في حين أن أنظمة الذكاء الاصطناعي لم تنجح في تفسير دلالات أو معاني محادثات البشر في مقاطع الفيديو.

وسجل الباحثون المشاركون في الدراسة أن أنظمة الذكاء الاصطناعي ما زال أمامها شوط طويل قبل أن تصل إلى فهم الإشارات الاجتماعية للبشر في بيئات التفاعل الحقيقية؛ وهو ما ينطوي على تداعيات خطيرة بالنسبة لصناعات صاعدة، مثل السيارات ذاتية القيادة أو الروبوتات وغيرها من المجالات التي تتطلب تفاعلات مستمرة بين الإنسان ومنظومات الذكاء الاصطناعي.

الباحثة ليلى إيزيك، أستاذة مساعدة العلوم المعرفية بجامعة جون هوبكنز ورئيس فريق الدراسة، قالت إنه “إذا كنت تريد أن يتفاعل نظام الذكاء الاصطناعي مع الإنسان، فلا بد أن يفهم ما الذي يقصده الإنسان، وكيف تتفاعل مجموعة من البشر سويا”.

وأضافت إيزيك، في تصريحات للموقع الإلكتروني “بوبيولار ساينس” المتخصص في الأبحاث العلمية: “هذه الدراسة في حقيقة الأمر تسلط الضوء على سبب إخفاق أنظمة الذكاء الاصطناعي في أداء هذه المهمة”.

وعلى الرغم من أن دراسات سابقة أثبتت قدرة أنظمة الذكاء الاصطناعي على وصف مغزى الصور الثابتة بدرجة تكاد تتساوى مع الإنسان، فإن الدراسة الجديدة كانت تهدف إلى قياس ما إذا كان الوضع نفسه يسري بالنسبة إلى الصور المتحركة أو مقاطع الفيديو.

وأوضحت إيزيك أنها اختارت مع فريقها البحثي المئات من مقاطع الفيديو من قاعدة بيانات خاصة، ثم قامت بتقصيرها إلى مدة زمنية لا تزيد عن ثلاث ثوانٍ، مع التركيز على المقاطع التي يظهر فيها شخصان يتفاعلان سويا.

وعرض الباحثون مقاطع الفيديو على المتطوعين المشاركين في التجربة ثم استطلاع رأيهم بشأن مغزى التفاعلات بين الأشخاص الذين يظهرون في تلك المقاطع، من خلال أسئلة موضوعية على غرار: “هل ترى أن الأشخاص في هذه المقاطع يواجهون بعضهم البعض”، وأسئلة شخصية مثل: “هل التفاعل بين الأشخاص في مقطع الفيديو يبدو إيجابيا أم سلبيا؟”.

وتبين من التجربة أن المتطوعين يتوصلون عادة إلى إجابات متشابهة تنم عن فهم أساسي مشترك للتفاعلات الإنسانية. أما أنظمة الذكاء الاصطناعي، فلم تتوصل إلى نفس درجة الإجماع في تفسير مقاطع الفيديو مقارنة بالمتطوعين.

الباحثة كاثي جارسيا، وهي أحد المشاركين في الدراسة من جامعة جون هوبكنز، قالت: “لا يكفي أن يشاهد نظام الذكاء الاصطناعي مقطع الفيديو ويتعرف على الأشكال أو الوجوه؛ بل نحتاج أن يفهم النظام تطور الأحداث في المشهد، وأن يفهم العلاقات والسياق وديناميكيات التفاعلات الاجتماعية، وهذه الدراسة تشير إلى أن هذا العنصر يعتبر بمثابة نقطة عمياء في تطور منظومات الذكاء الاصطناعي”.

وتأتي هذه النتائج في الوقت الذي تتسابق فيه شركات التكنولوجيا لدمج أنظمة الذكاء الاصطناعي داخل عدد متزايد من الأجسام الروبوتية، وهم مفهوم يطلق عليه اسم “الذكاء الاصطناعي المتجسد”. وقد تم اختبار هذا المفهوم في مدن أمريكية عديدة مثل لوس أنجليس وفينيكس وأوستن من خلال سيارات ذاتية القيادة تسير في الطرق بجانب السيارات التي يقودها البشر؛ مثل سيارات الأجرة التابعة لشركات مثل “وايمو روبو تاكسي”. وقد أثبتت التجارب أن أنظمة الذكاء الاصطناعي لهذه السيارات تعاني من قصور في فهم بعض مواقف القيادة المركبة مثل القيادة الدائرية أو منحنيات الرجوع للخلف. وعلى الرغم من أن بعض الدراسات الحديثة أثبتت أن السيارات ذاتية القيادة قد تكون أقل عرضة للحوادث مقارنة بقائدي السيارات، فإن السلطات الرقابية المختصة لا تزال تجري تحقيقات بشأن ما تردد عن مخالفة بعض هذه السيارات لقواعد السلامة.

وقطعت شركات تكنولوجية أخرى، مثل بوسطن ديناميكس وفيجر إيه أي وتسلا، خطوات أبعد نحو تطوير روبوتات على هيئة بشر تعمل بأنظمة الذكاء الاصطناعي في أماكن صناعية جنبا إلى جنب مع عمال على خطوط الإنتاج.

وسجل الباحثون أن تمكين أنظمة الذكاء الاصطناعي من فهم الإشارات الاجتماعية بين البشر داخل البيئات الصناعية ينطوي على أهمية بالغة لتلافي خطر وقوع الحوادث الصناعية.

وفي السياق ذاته، أبرزت الباحثة إيزيك أن “هذه الدراسة تسلط الضوء على أهمية دمج علوم الذكاء الاصطناعي وعلم الأعصاب والعلوم المعرفية بشكل أكبر مع عناصر العالم الحقيقي”.

إخترنا لك

أخبار ذات صلة

0 تعليق