مهدي عكنان
تظهر الروبوتات أكثر فأكثر في حياتنا اليومية، كالأطراف الآلية، جزازات أعشاب روبوتية، أو روبوتات تقدم وجبات للأشخاص في الحجر الصحي، أو مجرد ترفيه (كلاب آلية، ألعاب راقصة، وطائرات بهلوانية بدون طيار). ربما يكون الخيال هو الحد الوحيد لما يمكن أن تفعله الروبوتات في المستقبل.
لكن ماذا يحدث عندما لا تفعل الروبوتات ما نريدها أن تفعله؟ أو ربما تفعله بطريقة تسبب الضرر؟ على سبيل المثال، ماذا يحدث إذا تسببت ذراع آلية (بديل طرف مبتور) في حادث قيادة؟
شاهد كيف تكون الذراع الإلكترونية
أصبحت حوادث الروبوت مصدر قلق لسببين:
أولاً، لأن الزيادة في عدد الروبوتات سيعني ارتفاعًا في عدد الحوادث التي تقع فيها.
ثانيًا، تطور الروبوتات بحيث اصبحت أكثر تعقيدًا، عندما يكون الروبوت أكثر تعقيدًا، يكون من الصعب فهم سبب حدوث خطأ ما.
تعمل معظم الروبوتات على أشكال مختلفة من الذكاء الاصطناعي (AI).
الذكاء الاصطناعي قادر على اتخاذ قرارات شبيهة بالإنسان (على الرغم من أنها قد تتخذ قرارات موضوعية جيدة أو سيئة).
يمكن أن تكون هذه القرارات متعلقة بأي شيء، من تحديد كائن إلى تفسير الكلام.
يتم تدريب أنظمة الذكاء الاصطناعي على اتخاذ هذه القرارات للروبوت بناءً على المعلومات من مجموعات البيانات الضخمة، ويتم بعد ذلك اختبار الذكاء الاصطناعي للتأكد من دقته قبل أن يتم تعيينها للمهمة.
كلما زادت الأشياء المعقدة التي يستطيع الروبوت القيام بها، زادت أنواع المعلومات التي يتعين عليه تفسيرها.
نظرًا لأن الروبوتات أصبحت أكثر تعقيدًا وقادرة على التصرف بناءً على مجموعة متنوعة من المعلومات، فقد أصبح من المهم تحديد المعلومات التي اعتمد عليها الروبوت، خاصة عند حدوث ضرر.
الحوادث تقع
كما هو الحال مع أي منتج، يمكن أن تسوء الأمور مع الروبوتات.
في بعض الأحيان تكون هذه مشكلة داخلية، مثل عدم تعرف الروبوت على أمر صوتي، وفي بعض الأحيان يكون ذلك خارجيًا مثلاً، تعرض جهاز استشعار الروبوت للتلف.
وأحيانًا أخرى يمكن أن يكون كلاهما، مثل عدم تصميم الروبوت للعمل على السجاد والتعثر، ويجب أن تأخذ التحقيقات في حادث الروبوت جميع الأسباب المحتملة.
قد يكون من غير الملائم أن يتضرر الروبوت عندما يحدث خطأ ما، لكننا نشعر بقلق أكبر عندما يتسبب الروبوت في إلحاق الضرر بشخص ما أو يفشل في منع وقوع الضرر أو تخفيفه.
على سبيل المثال، إذا فشلت الذراع الإلكترونية في الإمساك بمشروب ساخن، فقام الروبوت بسكبها على المستخدم؛ أو إذا فشل روبوت الرعاية في تسجيل مكالمة استغاثة عند سقوط المستخدم أثر تعرضه لعارض صحي.
لماذا يختلف التحقيق في حادث الروبوت عن الحوادث البشرية؟
الجدير بالذكر أن الروبوتات ليس لديها دوافع، نحن نريد أن نعرف لماذا اتخذ الروبوت القرار الذي اتخذه بناءً على مجموعة معينة من المدخلات لديه.
في مثال الذراع الإلكترونية هل كان سوء تفاهم بين المستخدم واليد؟ وهل يخلط الروبوت بين إشارات متعددة؟ قفل بشكل غير متوقع؟ في مثال سقوط الشخص.
هل يمكن للروبوت أن لا يسمع نداء المساعدة بسبب وجود مروحة تصدر صوتاً مرتفعاً؟ أم أنها واجهت مشكلة في تفسير كلام المستخدم؟
الصندوق الأسود
يتمتع التحقيق في حادث الروبوت بامتياز غير موجود في تحقيقات الحوادث البشرية، فهناك احتمال وجود شاهد داخلي، وللطائرات التجارية شاهد مشابه هو الصندوق الأسود المصمم لتحمل حوادث الطائرات وتقديم معلومات عن سبب وقوع الحادث.
هذه المعلومات قيمة للغاية ، ليس فقط في فهم الحوادث ، ولكن في منع حدوثها مرة أخرى.
كجزء من RoboTIPS، وهو مشروع يركز على الابتكار المسؤول للروبوتات الاجتماعية (الروبوتات التي تتفاعل مع الناس)، حيث قاموا بإنشاء ما يسمى الصندوق الأسود الأخلاقي وهو سجل داخلي لمدخلات الروبوت والإجراءات المقابلة.
وتم تصميم الصندوق الأسود الأخلاقي لكل نوع من أنواع الروبوتات، وهو مصمم لتسجيل جميع المعلومات التي يعمل عليها الروبوت، ويمكن أن يكون هذا نشاطًا صوتيًا أو بصريًا أو حتى فكرة رائعة.
يتم اختبار الصندوق الأسود الأخلاقي على مجموعة متنوعة من الروبوتات في ظروف الحوادث المخبرية والمحاكاة، والهدف هو أن يصبح الصندوق الأسود الأخلاقي معيارًا في الروبوتات من جميع الماركات والتطبيقات.
في حين أن البيانات المسجلة بواسطة الصندوق الأسود الأخلاقي لا تزال بحاجة إلى تفسير في حالة وقوع حادث، فإن الحصول على هذه البيانات في المقام الأول أمر بالغ الأهمية للسماح بالتحقيق.
تقدم عملية التحقيق فرصة للتأكد من عدم حدوث نفس الأخطاء مرتين. الصندوق الأسود الأخلاقي هو وسيلة ليس فقط لبناء روبوتات أفضل، ولكن أيضًا للابتكار بمسؤولية في مجال مثير وديناميكي.
المصدر : ذا نكست واب