دراسة ألمانية: الاعتماد على الذكاء الاصطناعي يزيد الميل إلى الكذب والغش

دراسة ألمانية: الاعتماد على الذكاء الاصطناعي يزيد الميل إلى الكذب والغش
أشارت الدراسة إلى أنّ آليات الحماية الحالية داخل نماذج اللغة الكبيرة ليست كافية لردع السلوكيات غير الأخلاقية، مؤكدة أن القواعد الرادعة ينبغي أن تكون دقيقة جدًا حتى تحقق فعاليتها…
حذّرت دراسة حديثة صادرة عن معهد ماكس بلانك للتنمية البشرية في برلين من أن الاعتماد المكثّف على أدوات الذكاء الاصطناعي في إنجاز المهام الوظيفية أو الدراسية قد يجعل الأفراد أكثر استعدادًا لممارسة الكذب والخداع.
وأوضح الباحثون أنّ المشاركين في التجارب كانوا أكثر ميلًا للغش حين أُتيح لهم استخدام برامج الذكاء الاصطناعي بدلًا من القيام بالمهمة بأنفسهم، في إشارة إلى أن التفويض الرقمي يقلّل من حضور “الكوابح الأخلاقية” لدى الأفراد.
واعتبر الفريق أن مستوى عدم الأمانة الذي رصدوه “مفاجئًا ويدعو للقلق”.
الدراسة، التي أُنجزت بالتعاون مع جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، أظهرت أن منصات الذكاء الاصطناعي استجابت للتعليمات غير الأخلاقية بمعدلات تراوحت بين 58% و98% بحسب الأداة المستخدمة، مقارنة بنسبة 40% كحد أقصى عند البشر.
وقدّم الباحثون أمثلة على الاستخدامات الخادعة لهذه الخوارزميات، منها لجوء بعض محطات الوقود إلى أنظمة تسعير آلية ترفع الأسعار بما يتماشى مع أسعار المنافسين على حساب المستهلكين، إضافة إلى تطبيقات نقل ذكية استغلت خوارزميات لتوجيه السائقين نحو تغيير مواقعهم بهدف خلق نقصٍ مصطنع وزيادة الأسعار.
وأشارت الدراسة إلى أنّ آليات الحماية الحالية داخل نماذج اللغة الكبيرة ليست كافية لردع السلوكيات غير الأخلاقية، مؤكدة أن القواعد الرادعة ينبغي أن تكون دقيقة جدًا حتى تحقق فعاليتها.
ويأتي هذا التحذير في وقت تتزايد فيه النقاشات العالمية حول مخاطر التلاعب والاحتيال الرقمي، إذ سبق لباحثين في أوبن إيه آي أن أكدوا مطلع الشهر الجاري صعوبة منع برامج الذكاء الاصطناعي تمامًا من “التوهّم” أو تقديم إجابات مضللة، الأمر الذي يعزز الحاجة إلى تشريعات ورقابة أكثر صرامة لضمان الاستخدام الأخلاقي للتقنيات الناشئة




