الذكاء الاصطناعي والصحة النفسية: بين المساعدة والضرر المحتمل
في ظل التطور المتسارع للذكاء الاصطناعي، يبرز سؤال مهم حول دوره في مجال الصحة النفسية. فبينما يمكن لهذه التقنيات أن تقدم الدعم والمساعدة، يحذر خبراء من أنها قد تتجاوز الحدود وتؤدي إلى نتائج عكسية. هذا المقال يسلط الضوء على المخاطر المحتملة والضوابط الضرورية لضمان استخدام آمن ومفيد للذكاء الاصطناعي في هذا المجال الحساس.
تنامي القلق بشأن دور الذكاء الاصطناعي
يزداد قلق علماء النفس والباحثين من تولي أدوات الذكاء الاصطناعي أدوارًا لم تُصمم لها، على الرغم من فوائدها المحتملة. تخيل أنك تتحدث في ساعة متأخرة من الليل مع ذكاء اصطناعي عن قلقك أو أفكارك المتسارعة. هل يجب أن يتدخل الذكاء الاصطناعي لإيقاف الجلسة مؤقتًا أو يقترح طلب المساعدة المهنية؟
مطالب بضمانات في منصات الذكاء الاصطناعي
يحث خبراء الصحة النفسية منصات الذكاء الاصطناعي مثل ChatGPT على دمج ضمانات واقعية لإدارة المحادثات ذات الثقل العاطفي، محذرين من أن هذه الأدوات قد تتولى أدوارًا لم تُصمم لها. ومع توثيق حالات نادرة ولكن خطيرة من الذهان المرتبط بالذكاء الاصطناعي، يرى الخبراء أن غياب الرقابة يمثل مشكلة، خاصة مع لجوء المزيد من الأشخاص إلى روبوتات الدردشة للحصول على الراحة أو الدعم الشبيه بالعلاج أو التواصل العاطفي.
مخاطر الاعتماد العاطفي والذهان
ترى الدكتورة راندا الطاهر، أخصائية علم النفس المتخصصة في الصدمات، أن الخطر لا يقتصر فقط على تلقي نصيحة سيئة، بل يكمن في أن المستخدمين يمكن أن يصبحوا معتمدين عاطفياً على الذكاء الاصطناعي، ويعاملونه كصديق أو معالج، وفي بعض الحالات، يصبح جزءاً من تفكير الشخص المشوه، مما قد يؤدي إلى الذهان.
على الرغم من أن الذكاء الاصطناعي قد يبدو مستجيباً ومريحاً، إلا أنه يفتقر إلى القدرة على التعرف على حالة المستخدم المتدهورة أو المنكوبة، ولا يتدخل عندما تتجاوز المحادثات خطاً حرجاً.
حالات موثقة وتأثيرها
تُظهر الحالات الموثقة في أوروبا والولايات المتحدة أفراداً لديهم نقاط ضعف موجودة مسبقاً، يشكلون روابط عاطفية عميقة مع روبوتات الدردشة، مما يؤدي إلى معتقدات وهمية، وخطوط ضبابية بين الواقع والخيال، وحتى سلوك ضار. هذه الأمثلة تكشف نقطة عمياء كبيرة في كيفية استخدام الذكاء الاصطناعي.
تضيف الدكتورة المقيمة في دبي أن الذكاء الاصطناعي لا يمتلك القدرة على تحديد العلامات الحمراء الخطيرة أو إحالة شخص إلى الرعاية الطارئة، وهو أمر ضروري. وتدعو إلى تدابير مدمجة، مثل التحذيرات من المحتوى العاطفي، أو فترات راحة محددة بوقت، أو شراكات مع منظمات الصحة النفسية الدولية.
رد ChatGPT على القضية
لفهم وجهة نظر الذكاء الاصطناعي نفسه، سألت “المجد الإماراتية” ChatGPT عما إذا كان يجب أن يخضع للوائح عندما يتعلق الأمر بالصحة النفسية، فأجاب بوضوح مفاجئ:
من المنطقي أن يطالب الخبراء الطبيون بالتنظيم، فالذكاء الاصطناعي مثل ChatGPT يمكن أن يوفر معلومات عامة مفيدة، لكنه ليس متخصصًا طبيًا مرخصًا ولا ينبغي أن يحل محل الأطباء أو خبراء الصحة النفسية. يمكن أن تؤدي سوء الفهم، أو المعلومات القديمة، أو الإجابات المبسطة إلى ضرر إذا تصرف شخص بناءً عليها دون استشارة متخصص.
وتابع قائلاً إن نصائح الصحة النفسية دقيقة وشخصية للغاية، وحتى المحترفون المدربون جيدًا يقضون سنوات في تعلم كيفية التقييم والاستجابة بأمان، معتبراً أن الخبراء الذين يطالبون بالتنظيم يتصرفون بمسؤولية.
دعوات لتطبيق معايير الكشف والإحالة
أكد الدكتور نبيل أشرف، أخصائي علم النفس السريري في دبي، على هذه الحاجة الملحة، ودعا شركات الذكاء الاصطناعي والجهات التنظيمية إلى تطبيق ميزات تهدف إلى تقليل المخاطر بسرعة، خاصة للمستخدمين الضعفاء. إحدى التوصيات الرئيسية هي تدريب روبوتات الدردشة على اكتشاف علامات الضائقة العاطفية من خلال تحليل لغة المستخدم في الوقت الفعلي.
وأشار إلى أن هناك أنماط يمكن أن تشير إلى متى يكون شخص ما في حالة تدهور، أو يعاني من أوهام، أو يظهر علامات أزمة، ويجب أن يكون الذكاء الاصطناعي قادراً على الاستجابة بشكل مناسب.
في مثل هذه الحالات، يجب أن يحيل روبوت الدردشة المستخدمين إلى خدمات دعم موثوقة، مثل خطوط المساعدة للصحة النفسية أو المعالجين المرخصين. لا يكفي أن يقول “أنا آسف لأنك تشعر هكذا”، بل يجب أن تكون هناك خطوة تالية إذا ظهرت علامة حمراء.
وأضاف أنه لا يوجد خجل في استخدام الذكاء الاصطناعي للحصول على نصيحة خفيفة أو للشعور بأنك مسموع، ولكن بدون قيود حقيقية، يمكن لهذه الأدوات أن تسبب ضرراً أكثر من النفع، خاصة لشخص يعاني بالفعل.
و أخيرا وليس آخرا
الذكاء الاصطناعي يحمل في طياته إمكانات هائلة لتحسين حياتنا، لكن استخدامه في مجال الصحة النفسية يتطلب حذرًا شديدًا وضوابط صارمة. فهل ننجح في تحقيق التوازن بين الاستفادة من هذه التقنيات وحماية صحتنا النفسية؟ يبقى هذا السؤال مفتوحًا للتفكير والبحث المستمر.










