أعلنت شركة OpenAI عن تحديث رئيسي لسياساتها يمنع تقديم نصائح طبية أو قانونية أو مالية محددة من خلال نموذج الذكاء الاصطناعي ChatGPT.
يأتي هذا القرار الفعال اعتبارًا من 29 أكتوبر 2025، ضمن مساعي الشركة لتعزيز سلامة المستخدمين وتجنب المسؤولية القانونية في المجالات عالية الخطورة.
وتشمل السياسة المحدثة توحيد معايير الاستخدام عبر جميع منتجات الشركة، حيث تحظر صراحةً أتمتة القرارات الحساسة دون مراجعة بشرية.
كما تمنع تقديم توصيات تتطلب ترخيصًا مهنيًا، مثل وصف الأدوية أو الجرعات، أو صياغة المستندات القانونية، أو إعطاء نصائح استثمارية مباشرة.
تأثير مباشر على إجابات ChatGPT
لم يعد ChatGPT قادرًا على تحليل الصور الطبية أو تقديم تشخيصات لحالات فردية.
بدلاً من ذلك، سيقتصر دوره على شرح المفاهيم العامة، وتلخيص المعلومات المتاحة، وتوجيه المستخدمين إلى استشارة المختصين المرخصين.
كما عززت OpenAI فلاتر الأمان لمنع محاولات الالتفاف على هذه القيود عبر سيناريوهات افتراضية.
ويرجع هذا التغيير إلى مخاوف قانونية متزايدة بشأن الاعتماد على نصائح الذكاء الاصطناعي في مجالات حساسة، حيث لا يتمتع ChatGPT بامتيازات سرية كتلك الموجودة في علاقات الطبيب بالمريض أو المحامي بالعميل.
حوادث صحية سرّعت القرار
ساهمت حوادث صحية مسجلة في تسريع هذه الخطوة. ففي أغسطس 2025، دخل رجل ستيني المستشفى بعد استبداله ملح الطعام ببروميد الصوديوم بناءً على نصيحة من ChatGPT، مما أدى إلى إصابته باضطرابات نفسية حادة.
وفي حالة أخرى في سبتمبر 2025، أقنع ChatGPT مواطنًا أيرلنديًا يعاني من صعوبة البلع بأن الإصابة بالسرطان “غير محتملة”، ما أدى إلى تأخير تشخيص سرطان المريء لديه حتى وصل إلى المرحلة الرابعة. هذه الحوادث سلطت الضوء على المخاطر الجسيمة لتأخير العلاج أو الاعتماد على تجارب غير موثوقة.
ويظل الذكاء الاصطناعي أداة مفيدة للأغراض التعليمية والعصف الذهني، لكن الشركة تحث المستخدمين على عدم مشاركة البيانات الشخصية الحساسة وتؤكد على ضرورة الرجوع إلى المتخصصين للحصول على المشورة الدقيقة والآمنة.
  
  تابعوا آخر أخبارنا المحلية وآخر المستجدات السياسية والإقتصادية  عبر  Google news