تصحيح أخطاء الروبوتات

طوّر باحثون في مختبر الذكاء الاصطناعي وعلوم الحاسوب في معهد ماساتشوستس للتكنولوجيا نظامًا جديدًا يُمكّن البشر من التحكم في الروبوتات عن طريق الذهن، حيث يستطيع النظام تحديد الوقت الذي يُلاحظ فيه الشخص أخطاء الروبوتات، ومن ثم تصنيف هذه اللحظات أو "موجات الدماغ" على الفور لتقديم ملاحظات.وأجرى الباحثون اختبارات على روبوت يُدعى "باكستر"، ووجدوا أن التقنية الجديدة ساعدته على اتخاذ القرارات الصحيحة أثناء عملية فرز، وهو ما يعني أن الإنسان قد يتمكن من التواصل مع الروبوتات في المستقبل بدون كلام، وفقًا لما نشرته صحيفة "ديلي ميل" البريطانية.

واشترك مع باحثي معهد ماساتشوستس في تطوير النظام، باحثون في جامعة بوسطن الأميركية، وذلك باستخدام بيانات من جهاز مراقبة تخطيط أمواج الدماغ EEG لتسجيل نشاط الدماغ البشري، وحالما يتم الكشف عن خطأ في أداء الروبوت، تقوم الخوارزميات التعليمية بفرز هذه الموجات في غضون من 10 إلى 30 ميللي ثانية لتقديم ملاحظات.

وذكرت مديرة مختبر الذكاء الاصطناعي وعلوم الحاسب، دانييلا روس: "تخيّل أن تكون قادرًا على إعطاء أوامر للروبوت على الفور بدون الحاجة إلى كتاباتها باستخدام الحاسوب أو الضغط على زر معين أو حتى التحدث إليه، فإن هذا الابتكار من شأنه يُعزز قدرتنا على الإشراف على الروبوتات في مصانع السيارات ذاتية القيادة والتقنيات الأخرى التي لم يتوصل إليها البشر بعد".

وأظهرت لقطات من المختبر كيف يُمكن للإنسان الذي يرتدي جهاز تخطيط أمواج الدماغ، التأثير على قرارات الروبوت أثناء عملية الفرز، فحينما كان "باكستر" يحاول فرز أسلاك النحاس والرسم، يحاول النظام أن يعثر على إشارات الدماغ البشرية من المراقب البشري المعروف باسم "الإمكانات المتعلقة بالخطأ"، وهذا يحدث فقط حالما يلاحظ الدماغ الخطأ. وفي حالة اكتشاف النظام لهذه الإشارات، سوف يعدل الروبوت من أخطائه على الفور، ولكن في حالة عدم اكتشاف هذه الإشارات، فسوف يستكمل الروبوت مهمته..

وأوضحت روس: "عندما يراقب الشخص الروبوت، كل ما عليه القيام به هو الموافقة على أدائه في عقله، بدون الحاجة إلى تدريب مُسبق على هذه العملية أو التدريب على التفكير بطريقة معينة، بيد أن الآلة تتكيف مع البشر وليس الروبوت". وتعتبر "الإمكانات المتعلقة بالخطر" ضعيفة للغاية، وهو ما يعني أنها دقيقة جدًا. وفي نفس الصدد، يعتزم الباحثون أيضًا الكشف عن "الأخطاء الثانوية" التي تحدث عندما لا يلاحظ النظام التصحيح الأصلي لأخطاء الروبوت.
وأفادت عضو الفريق القائم على المشروع، ستيافني جيل، بأنه في حالة عدم تأكد الروبوت من قرار معين، تحدث ردة فعل لدى الإنسان المراقب للحصول على إجابة أكثر دقة، مشيرة إلى أن هذه الإشارات يمكن أن تعزز لغة الحوار بين الإنسان والروبوتات.

ولا يزال يعجز النظام عن تحديد الأخطاء الثانوية، وأشار الباحثون إلى أن هناك إمكانية لتعزيزه بحيث يكتشف تلك الأخطاء عند نسبة 90 في المئة، وفي المستقبل، قد يتم استخدام هذا النوع من التواصل في مهام متعددة الخيارات أكثر تعقيدًا.

كما يشدد الباحثون على أن هذا التواصل قد يكون مفيدًا للأشخاص الذين لا يستطيعون التواصل لفظيًا، فنظرًا لمدى صعوبة ترجمة لغة الإشارة التي يستخدمها الصم والبكم إلى الروبوتات، فإن هذا الأمر قد يكون له تأثيرًا عميقًا على مستقبل التعاون بين الإنسان والروبوتات.