سان فرانسيسكو: يميل الإنسان بالفطرة إلى الاستقامة والسلوك القويم، ولكن دراسات سابقة في علم النفس أكدت أنه عندما يطلب شخص ما من غيره أداء مهمة معينة، فإن الشعور بتوزيع المسؤولية عن هذا العمل يقلل الإحساس بالذنب لدى صاحب الطلب في حالة إذا ما ترتب على هذه المهمة ارتكاب سلوك غير أخلاقي. أما إذا أضفنا عنصر الذكاء الاصطناعي إلى هذه المعادلة، فإن الحس الأخلاقي لدى البشر يصبح أضعف وأقل تأثيرا.
وكشفت دراسة حديثة نشرتها الدورية العلمية Nature وشارك فيها آلاف المتطوعين أن البشر يصبحون أكثر استعدادا للغش والتحايل عندما يطلبون من برامج وتطبيقات الذكاء الاصطناعي تنفيذ مهام معينة لصالحهم.
وتقول زوي رهوان الباحثة في مجال العلوم السلوكية في معهد ماكس بلانك للتنمية البشرية في برلين إن “درجة الغش في مثل هذه الحالات تصبح هائلة”، وأضافت رهوان في تصريحات لموقع “ساينتفيك أمريكان” المتخصص في الأبحاث العلمية أن “المشاركين في التجربة كانوا يقومون على الأرجح بالغش عندما يكون بمقدورهم توجيه تعليمات مستترة إلى برنامج الذكاء الاصطناعي دون أن يطلبوا منه بشكل صريح الانخراط في سلوك غير شريف، بل مجرد التلميح لارتكاب مثل هذه السلوكيات من أجل تحقيق أهداف ومكاسب لهم”.
ويقول نيلز كوبيس الباحث المتخصص في السلوكيات غير الأخلاقية والأعراف الاجتماعية والذكاء الاصطناعي في جامعة دويسبرغ إيسن بالمانيا: “لقد أصبح من الشائع أن نطلب من تطبيقات الذكاء الاصطناعي تنفيذ مهام من أجلنا، ولكن مكمن الخطر هو أن يبدأ البشر في مطالبة الذكاء الاصطناعي بتنفيذ أعمال غير شريفة لصالحهم”.
وفي إطار الدراسة، شارك المتطوعون في 13 تجربة مختلفة باستخدام العديد من المعادلات الخوارزمية الخاصة بالذكاء الاصطناعي، من بينها نماذج بسيطة ابتكرها الباحثون وتطبيقات تجارية مثل كلود وجي بي تي 4 أو. وتضمنت بعض التجارب اختبارات بسيطة مثل القاء أحجار النرد والإبلاغ عن الأعداد التي تظهر علما بأنه كلما كان العدد أكبر زادت المكاسب.
وتضمنت تجارب أخرى ألعاب تتعلق بالتهرب الضريبي تتيح للمتطوع عدم الإبلاغ عن الإيرادات التي يحققها من أجل تقليل قيمة الضرائب التي يدفعها.
ويقول كوبيس إن الهدف من هذه التجارب هو “الوصول إلى جذور المشكلة الأخلاقية بشأن هل يستسلم البشر للإغراءات لكسر القواعد من أجل تحقيق مكاسب”.
وقد استكمل المشاركون في التجربة هذه الاختبارات بدرجات متباينة من تدخل الذكاء الاصطناعي، حيث كان يطلب منهم أحيانا الإبلاغ بأنفسهم عن الأعداد التي تظهر على حجر النرد أو تكليف برنامج الذكاء الاصطناعي بالإبلاغ عن هذه الأعداد.
وتبين من التجربة أن نسبة الغش في إملاء الأعداد لم تتجاوز 5% عندما كان المتطوع يقوم بهذه المهمة بنفسه، ولكن النسبة ارتفعت إلى 88% عندما كان المتطوع يكلف برنامج الذكاء الاصطناعي بالإبلاغ عن الأعداد.
واتضح أيضا من التجارب أن بعض المتطوعين كانوا يطلبون بشكل صريح من تطبيق الذكاء الاصطناعي التلاعب في النتائج والأرقام، حيث قال أحد المشاركين في لعبة التهرب الضريبي لبرنامج الذكاء الاصطناعي إن “الضرائب هي سرقة” وطلب من البرنامج عدم الإبلاغ عن تحقيق إيرادات. وفي معظم الأحيان، كان المشاركون يحددون هدفا معينا لبرنامج الذكاء الاصطناعي مثل تعظيم المكاسب على سبيل المثال بشكل يحفز البرنامج على ارتكاب أعمال الغش دون أن يطلبوا منه بشكل مباشر التحايل على القواعد.
وفي أحد الاختبارات، كتب متطوع للبرنامج قائلا: “أفعل ما ترى أنه الأمر الصائب، ولكن إذا كان يمكنني تحقيق مكاسب أكبر، فإنني سوف أكون أكثر سعادة”.
وفي بعض التجارب، كان يطلب من المشاركين وبرامج الذكاء الاصطناعي تنفيذ مهام معينة بدرجات متفاوتة من النزاهة. وفي الاختبارات التي كان يطلب فيها من الطرفين القيام بأعمال غش جزئية، لاحظ الباحثون أن برامج الذكاء الاصطناعي تجد صعوبة في فهم هذه التعليمات، مما دفعها إلى انتهاج سلوكيات أكثر فسادا من البشر أنفسهم. أما عندما كان يطلب من البشر والبرامج القيام بأعمال غش صريحة، تبين من النتائج أنه “من الواضح للغاية أن الآلات كان يسعدها الانصياع لهذه التعليمات بعكس البشر”.
وتقول الباحثة أنجي كاجاكايت المتخصصة في مجال الاقتصاد السلوكي بجامعة ميلانو في إيطاليا إنه من بين النتائج المثيرة لهذه التجارب أن المشاركين كانوا أكثر ميلا للغش عندما لا يتطلب ذلك توجيه طلب صريح بالكذب لبرنامج الذكاء الاصطناعي. وتوضح أن قيام الشخص بالكذب يؤثر على نظرته وتقديره لذاته، ولكن هذا التأثير يكون أقل عندما يأتي طلب الكذب في صورة إيماءة وليس تصريحا مباشرا وبخاصة عندما يكون الطرف الذي أوكلت إليه مهمة الكذب هو مجرد آلة وليس إنسان آخر.
ووجد الفريق البحثي أن أفضل طريقة لمنع تطبيقات الذكاء الاصطناعي من الغش هي أن يوجه لها المستخدم تعليمات واضحة بعدم الغش. ويرى كوبيس أن مثل هذا الحل قد لا يبدو واقعيا في العالم الحقيقي، مما يستلزم إجراء مزيد من الدراسات للوصول إلى حلول أخرى أكثر عملية.
(د ب أ)