المعتمدون على أدوات الذكاء الاصطناعي أكثر استعدادا للكذب

     
العين الثالثة             عدد المشاهدات : 47 مشاهده       تفاصيل الخبر       الصحافة نت
المعتمدون على أدوات الذكاء الاصطناعي أكثر استعدادا للكذب

حذرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعدادا لخداع الآخرين والكذب عليهم.

وبحسب الدراسة التي أجراها "معهد ماكس بلانك للتنمية البشرية" في برلين فإن بعض المستخدمين ينسون استخدام "الكوابح الأخلاقية" عند تفويض مهامهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلا منهم.

وقال الباحثون في المعهد الألماني "كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم"، معربين عن استغرابهم من "مستوى عدم الأمانة" الذي رصدوه.

وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبين أنها "تلتزم في كثير من الأحيان" بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلا إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.

وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.

وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأميركية الرائدة "أوبن أيه. آي" إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من "التوهّم" أو التلفيق.

كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.


Google Newsstand تابعوا آخر أخبارنا المحلية وآخر المستجدات السياسية والإقتصادية عبر Google news


تابعنا على يوتيوب

تابعنا على تويتر

تابعنا على تيليجرام

تابعنا على فيسبوك

مصدر رسمي يكشف تفاصيل إنزال عسكري مفاجئ في صعدة

الحدث اليوم | 852 قراءة 

حكومة صنعاء تعلن إنتهاء المهلة الخاصة بهذا الأمر وتؤكد البدء بشروعها في التنفيذ ابتداء" من يوم السبت القادم

الحدث اليوم | 836 قراءة 

الرياض تفتح جبهة جديدة ضد الانتقالي وتتهم أبوظبي بإفشال اتفاقها

مساحة نت | 823 قراءة 

شرطة تعز تضبط مطلوباً في جرائم جنائية كبرى

تهامة 24 | 639 قراءة 

الإعلان عن تسعيرة جديدة بحسب متغيرات سعر الصرف(وثيقة)

كريتر سكاي | 633 قراءة 

إعلامي بارز يوجّه رسالة للحوثيين: عند ساعة الصفر ألقوا السلاح وادخلوا مسجد الصالح

نافذة اليمن | 563 قراءة 

الان: انفجار يهز صنعاء ويسبب حالة من الذعر

الحدث اليوم | 557 قراءة 

اليمن تستقبل تشكيلات عسكرية جديدة في حضرموت وتعز خارج سلطة الحكومة

يمن ديلي نيوز | 505 قراءة 

عاجل: نتنياهو يعتذر رسميا لدولة قطر على هجوم الدوحة

المشهد اليمني | 462 قراءة 

الأرصاد يحذر: اضطراب البحر وأمطار رعدية متفرقة على عدة محافظات

حشد نت | 456 قراءة