388 كارثة طبيعية تحصل سنوياً في العالم، أي ما يعادل أكثر من كارثة يومياً، تنتج منها أضرار مادية وبشرية كبيرة. يتحرك المستجيبون الأوائل، من هيئات رسمية ومنظمات، بعد وقوع الكارثة، محاولين إنقاذ ما أمكن من أشخاص، إلا أن استجابتهم تأتي في غالب الأحيان بطيئة وموجهة بنحو خاطئ، لأنها تعتمد أساساً على المعلومات التي يحصلون عليها من دون أن يفهموا فعلياً حجم الأزمة، وفق دراسة حديثة للبروفيسورة مارييت عواد وفريقها البحثي في كلية مارون سمعان للهندسة والعمارة في الجامعة الأميركية في بيروت.
من هنا، كان لا بد من إيجاد طريقة تنظّم عمل هذه الفرق لجعله أكثر فعالية بالاعتماد على التقنيات الموجودة مثل الحوسبة الإنسانية (Humanitarian Computing)، أي استخدام الكمبيوتر للمساعدة في القضايا الإنسانية مثل الاستجابة للأزمات.
في عالم يوجد فيه أكثر من 3 مليارات شخص على شبكة الإنترنت، والكثير منهم ينشرون صوراً وتعليقات للكوارث الطبيعية عقب حدوثها، يمكن هذه النشاطات أن تشكّل عنصر مساعدة أساسياً قد يُسهم في إنقاذ حياة الكثيرين، من خلال التوجيه الصحيح لفرق الإنقاذ. فقد وجدت عواد وفريقها البحثي أنه من خلال الاستفادة من الصور التي تُنقَل على الإنترنت، وتحديداً على وسائل التواصل الاجتماعي، يمكن تخفيف وإزالة الجهد المبذول لتحديد نوع الضرر الناجم عن الكوارث الطبيعية وشدته. وبالتالي يمكن إعادة تركيز الجهود نحو إدارة أفضل لمهمات المساعدة والإنقاذ من خلال الشروع في استجابة أفضل وتوجيه المستجيبين الأوائل حسب الأولوية.

أظهر النظام في مراحله الأولى دقّة تفوق 95% في تصنيف الضرر

وعليه، وجب ابتكار آلية جديدة للاستعمالات الإنسانية للكمبيوتر، للتنقيب بين الصور والكلمات التي يُرفقها الناس بها على شبكات التواصل الاجتماعي من أجل التعرف بسرعة إلى الكوارث وتصنيفها حسب النوع، وهو ما قام به الفريق في الجامعة الأميركية في بيروت من خلال ابتكار نظام لا يزال في مراحله الأولى من التطوير، ولكنه أثبت حتى الآن دقّة تفوق 95% في تصنيف الضرر.
يشرح البحث أن النظام الذي طُوِّر يعتمد على تحليل متقدم لمعالجة الصور وتقنيات فهم المشهد، أي جعل الآلة ترى الصورة وتفهمها، وليس فقط تحديد ألوانها وشكلها وما إلى ذلك، بل تمكينها من الفهم اللغوي لما تعنيه البيانات البصرية، لإتاحة تصنيف تلقائي للصور التي تحتوي على أضرار وتقويمها. لكن «على الرغم من كل التطورات في الرؤية الحاسوبية، فإنه لا يوجد أي خوارزمية واحدة يمكنها وصف صورة على جميع المستويات الدلالية».
تقول عواد وفريقها إن النهج القائم حالياً في الحوسبة الإنسانية يتجاهل الصور التي غالباً ما ترفق بالرسائل، وتحديداً على موقع تويتر، والتي قد تحتوي على معلومات أكثر قيمة من الكلمات، لذلك طوّر الفريق نهجاً جديداً يدمج معالجة الميزات البصرية على مستوى منخفض لاستخراج اللون والشكل والبنية، بالتوازي مع السمة الدلالية التي يُحصَل عليها بعد مقارنة التعليقات على الصور بمجموعة كلمات للمساعدة في الحوسبة الإنسانية.
لإنشاء هذا النظام، حمّل الفريق الصور التي جُمعت عبر الإنترنت وقسموها إلى فئتين واسعتين من الأضرار: البنية التحتية، والبنية الطبيعة.
جرى تدريب هذه الميزات البصرية والنصية واختبارها على مجموعة البيانات التي جُمعَت من قاعدة بيانات «صن»، التي توفر مجموعة كبيرة ومتنوعة من المشاهد البيئية والأماكن والأشياء، إضافة إلى جمع بعض الصور من غوغل. أفضل دقة حُصل عليها باستخدام ميزات منخفضة المستوى فقط هي 91.3%، في حين أن إلحاق السمات الدلالية بها رفع الدقة إلى 95.5% باستخدام شعاع الدعم الآلي (وهو نموذج خوارزميات تعلم مترابطة تقوم بتحليل البيانات المستخدمة في تصنيف وتحليل الانحدار).
تشكَّل الصور باستخدام كل من الميزات المنخفضة المستوى والسمات الدلالية وتُستخرَج السمات من التعليقات التوضيحية على الصورة واعتماداً على مجموعتين من السمات الدلالية الثنائية. فالصور التي تُنشَر على شبكة الإنترنت عادة ما تأتي مع تعليقات (كلام الصورة) تكون عبارة عن جمل أو تسميات تلمّح إلى محتوى الصورة. مع أساليب معالجة اللغة الطبيعية، ينبغي للنظام أن يكون قادراً على استخراج الكلمات والسمات الرئيسية الموجودة في النص، وعليه صمّم الباحثون الميزة الدلالية لتكون واصفاً مزدوجاً، واضعين مجموعتين من الكلمات لكل فئة من فئتي الأضرار.
يختم الباحثون بحثهم بأنه يمكن اعتبار هذا العمل خطوة أولى نحو بناء تصنيف هرمي يمكن أن يميز أنواعاً واسعة من الفئات، على سبيل المثال بنية تحتية مدمجة مع الأضرار الطبيعية، ثم فروع لفئات ثانوية، مثل أضرار المباني أو أضرار الطرق، وهذا سيؤدي في نهاية المطاف إلى تسهيل فهرسة الصور واسترجاعها. يتطلع الباحثون إلى أن تساعد الحوسبة الإنسانية في تحسين استجابة فرق الإسعافات الأولية ليس في مناطق الكوارث الطبيعية فقط… بل في مناطق الحرب أيضاً.

* للمشاركة في صفحة تكنولوجيا التواصل عبر البريد الإلكتروني: [email protected]