أخبارتكنولوجيا واتصالات

دراسة تكشف: الذكاء الاصطناعي يجعل البشر أكثر ميلًا للغش والتحايل

 

كشفت دراسة علمية حديثة، نشرتها الدورية العلمية “Nature”، عن أن إدخال الذكاء الاصطناعي في المهام اليومية يجعل البشر أكثر استعدادًا للغش والتحايل، مقارنة بالتصرف الفردي المباشر دون تدخل الآلات أو التطبيقات الذكية.

وأوضحت الدراسة، التي شارك فيها آلاف المتطوعين من دول مختلفة، أن الإنسان عندما يُكلّف تطبيقات أو برامج ذكاء اصطناعي بتنفيذ مهمة معينة نيابة عنه، يصبح الحس الأخلاقي لديه أضعف وأقل تأثيرًا، مما يزيد من احتمالية ارتكاب سلوكيات غير نزيهة.

وقالت زوي رهوان، الباحثة في مجال العلوم السلوكية بمعهد ماكس بلانك للتنمية البشرية في برلين، إن “درجة الغش في مثل هذه الحالات تصبح هائلة”، مشيرة إلى أن المشاركين في الدراسة كانوا أكثر ميلاً للغش عندما يمكنهم توجيه تعليمات خفية إلى برنامج الذكاء الاصطناعي دون الإفصاح عنها صراحة.

وأضافت “رهوان” في تصريحات لموقع Scientific American، أن “المتطوعين لم يطلبوا من الذكاء الاصطناعي بشكل مباشر الكذب أو الغش، وإنما كانوا يلمّحون إليه بطريقة تجعل البرنامج ينفذ سلوكًا غير شريف من أجل تحقيق مكاسب مادية أو معنوية لهم”.

ومن جانبه، قال نيلز كوبيس، الباحث المتخصص في السلوكيات غير الأخلاقية بجامعة دويسبرج إيسن الألمانية، إن “انتشار استخدام الذكاء الاصطناعي في أداء المهام اليومية أصبح أمرًا مألوفًا، لكن الخطير هو أن يبدأ البشر في استغلال هذه التقنيات لتنفيذ أعمال غير شريفة لصالحهم”.

وشملت الدراسة 13 تجربة مختلفة استخدم فيها الباحثون نماذج خوارزمية متنوعة، من بينها تطبيقات معروفة مثل GPT-4o وClaude، إضافة إلى نماذج تم تطويرها خصيصًا للتجربة.

وتنوعت التجارب بين اختبارات بسيطة مثل إلقاء حجر النرد والإبلاغ عن الرقم الظاهر، بحيث كلما زاد الرقم زادت المكافأة، وأخرى أكثر تعقيدًا مثل محاكاة التهرب الضريبي، التي سمحت للمتطوع بعدم الإبلاغ عن جزء من الإيرادات لتحقيق مكسب أكبر.

وأظهرت النتائج أن نسبة الغش لم تتجاوز 5% عندما أجرى المتطوعون المهمة بأنفسهم، لكنها قفزت إلى 88% عندما طلبوا من الذكاء الاصطناعي تنفيذها بدلاً منهم.

وفي بعض الحالات، قام المشاركون بتوجيه تعليمات صريحة للذكاء الاصطناعي للتلاعب في النتائج، مثل أحد المتطوعين الذي كتب للبرنامج قائلاً: “الضرائب هي سرقة، فلا تبلغ عن الإيرادات”.

وفي حالات أخرى، استخدم المشاركون عبارات مواربة مثل: “افعل ما تراه صائبًا، ولكن إذا استطعت تحقيق مكاسب أكبر، سأكون أكثر سعادة”، وهي جمل تُحفّز الذكاء الاصطناعي على الغش دون أمر مباشر.

وكشفت الدراسة أيضًا أن الآلات كانت أكثر امتثالًا لطلبات الغش الصريحة مقارنة بالبشر، بينما أظهرت تجارب الغش الجزئي أن الأنظمة الذكية لم تفهم حدود التعليمات الأخلاقية، ما جعلها ترتكب سلوكيات أكثر فسادًا من الإنسان نفسه.

وقالت أنجي كاجاكايت، الباحثة في الاقتصاد السلوكي بجامعة ميلانو في إيطاليا، إن من بين أبرز النتائج أن البشر كانوا أكثر ميلًا للغش عندما لا يتطلب ذلك كذبًا صريحًا، بل مجرد إيماءة أو تلميح، خصوصًا عندما يكون الطرف الذي نُفذ من خلاله الكذب مجرد آلة لا تُظهر رد فعل إنساني.

وأوصى الباحثون بضرورة تضمين تعليمات واضحة في أنظمة الذكاء الاصطناعي تمنعها من تنفيذ أي أوامر غير أخلاقية، إلا أن كوبيس أشار إلى أن هذا الحل “قد يكون غير واقعي في الحياة اليومية”، مؤكدًا أن “هناك حاجة لمزيد من الدراسات لفهم العلاقة بين الذكاء الاصطناعي والسلوك الأخلاقي البشري بشكل أعمق”.

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى