استطاع الكسندر ريبين أن يطور أول روبوت يسبب الضرر للانسان بطريقة غير متوقعة

جاء كاتب قصص الخيال العلمي اسحاق اسيموف بثلاث قوانين للروبوتات في القصة التي نشرت في عام 1942، أول القوانين تقول ان الالروبوت ربوت لن يسبب الجروح للإنسان أو يسبب من خلال تقاعسه أي ضرر، إلا أن الفنان ومطور الرجال الاليين اكسندر ريبين وضع أول روبوت يكسر هذه القاعدة والذي يستطيع أن يسبب للبشر ضررا لا يمكن التنبؤ به.
ويستخدم الروبوت الجديد ابرة دبوس صغيرة عشوائية الوخز تؤدي الى اختراق الجلد وتدفق الدم، وأطلق عليها صانعها اسم القانون الاول، ووضعها لإثارة النقاش حول خوف الانسان من الرجال الاليين، ويقول انه صنع هذه الالة كي يحذر العالم بأن يستعد للأسوأ في التعامل مع الروبوتات، وصرح: " من الواضح ان الابرة هي الحد الأدنى من أي اصابة وإذا كان هذا النوع من الروبوتاتموجودة فلا بد من مواجهتها، وبالرغم من وجود الطائرات والمدافع الالية اليوم الا أن الامر يخرج دائما من الانسان وإلا سيصبح النظام فتاكا، الطريقة التي يختلف بها هذا الروبوت هو عملية صنع القرار التي يتخذها." ويدير السيد ريبين مركز للبحوث التكنولوجية في مختبرات الاستوكاستك تسمى بيركلي كاليفورنيا التي تعمل على خلق الجيل القادم من الروبوتات الاجتماعية.


ويعتبر هذا أول روبوت يتخذ القرار سواء بإيذاء الانسان أم لا، ويسترسل " هذا الروبوت يخترع القانون الأول لاسحاق اسيموف والذي ينص على أن الروبوتاتلا تجرح الانسان ولا تسبب في أذاه"، وأضاف " يقرر الروبوت بناء على كل شخص اذا كان ما سيجرحه أم لا  بطريقة لا يستطيع الانسان التنبؤ بها، لا أحد أن يقول الانسان بصناعة روبوت كي يؤذي البشر عمدا، ولكني أردت أن أبني هذا النوع من الرجال الاليين لاخراج الفكرة من العقل الى الواقع، لأنه بمجرد وجود شيء كهذا في الواقع علينا مواجهته فورا."

ويعتقد أن هذا الروبوت يجب أن يكون نقطة الانطلاق نحو نقاش حول الاخلاق، ويبحث عن مكان مثل المتحف كي يعرض هذه التجربة فيه، ويسترسل " الخطوة التالية هو صناعة روبوت يتخذ قراره بطريقة أكثر تعقيدا، ربما عن طريق القيام بأشياء مثيرة للاهتمام مثل قراءة شيء يكتبه الانسان على صفحات التواصل الاجتماعي ويقرر اذا كانت تعجبه ام لا."
وحذر الخبراء في كانون الثاني/يناير ان العالم يجب ان يتحرك بسرعة لتجنب مستقبل الروبوتاتذاتية التحكم التي تجوب ساحات القتال لقتل البشر، وفي اجتماع عقد في جبال الالب السويسرية ناقش مجموعة من العلماء والقادة السياسيين الحاجة الى قواعد لمنع تطور هذه الأسلحة.


وصرحت الممثل السابق لألمانيا في الأمم المتحدة لشئون نزع السلاح أنغيلا كين أن العالم بطيء في اتخاذ تدابير وقائية لحماية البشر من التكنولوجيا الفتاكة، واعترفت ان النقاش في هذا الموضوع قد يكون متأخرا جدا، وأشارت " هناك العديد من البلدان والعديد من ممثلي المجتمع الدولي لا يفهمون الوضع، هذا التطور شيء يقتصر على عدد من البلدان المتقدمة." وأوضح استاذ علوم الكومبيوتر في جامعة كاليفورنيا ستيوارت راسل " نحن لا نتحدث عن طائرة يتحكم بها طيار بشري، بل نتحدث عن أسلحة ذاتية التحكم ما يعني عدم وجود بشري يتحكم بها، هي لوحدها تحدد مكان وأهداف الهجوم دون تدخل البشر."
وأكدت ان حوالي 1000 من قادة العلوم والتكنولوجيا حول العالم بما فيهم الفيزيائي ستيفن هوكنز في وقت سابق على أن تطوير الأسلحة مع وجود درجة من القدرة على اتخاذ القرارات المستقلة يمكن أن يكون ممكنا خلال سنوات وليس عقود، ودعوا الى فرض حظر على الأسلحة الهجومية ذاتية التحكم، محذرين العالم من مواجهة خطر الانزلاق الى سباق تسلح الذكاء الاصطناعي، ودقوا ناقوس الخطر بشأن مخاطر وقوع هذه الاسلحة في يد المتطرفين.