الذكاء الاصطناعي والصحة النفسية: بين المساعدة والضرر في الإمارات
مع تزايد اعتماد الناس في جميع أنحاء العالم، والإمارات العربية المتحدة على وجه الخصوص، على الذكاء الاصطناعي كأداة مريحة لتيسير أمور حياتهم، يثير الخبراء مخاوف بشأن استخدامه كبديل للمعالجين النفسيين المتخصصين في التعامل مع التحديات العاطفية الكبيرة.
الاعتماد المتزايد على الذكاء الاصطناعي في مجال الصحة النفسية
ترى سريفيديا كوتارابات سرينيفاس، أخصائية علم النفس السريري في عيادة ميدكير كامالي، أن الاعتماد المتزايد على شات جي بي تي ChatGPT وأدوات الذكاء الاصطناعي الأخرى للحصول على إرشادات في مجال الصحة النفسية يعكس تحولًا أعمق في طرق طلب المساعدة.
وتضيف أن هذه الأدوات توفر حلولًا سريعة وفورية، بالإضافة إلى سهولة الوصول إليها وإخفاء الهوية.
تأثير الذكاء الاصطناعي على جيل الشباب
يظهر هذا الاتجاه بشكل خاص بين جيل الشباب، الذين يرون في الذكاء الاصطناعي نقطة الاتصال الأولى لاستكشاف مشاعرهم أو فهم الأعراض قبل اللجوء إلى متخصص. ورغم أن هذا قد يساهم في التثقيف النفسي المبكر وإزالة الوصمة المرتبطة بمشاكل الصحة النفسية، إلا أنه لا ينبغي أن يحل محل المتخصصين المؤهلين في هذا المجال.
في العام الماضي، كشفت دراسة أجراها منتدى أوليفر وايمان أن 36% من جيل زد وجيل الألفية يفكرون في استخدام الذكاء الاصطناعي لدعم صحتهم النفسية، مقارنة بـ 27% فقط من الأجيال الأخرى. وقد تزامن هذا مع تزايد مشاكل الصحة النفسية والوعي بها، وتراجع الوصمة المرتبطة بها تدريجيًا.
تفاقم مشاكل الصحة النفسية
وفقًا لمنظمة الصحة العالمية، ارتفعت معدلات الاكتئاب والقلق بنسبة تتراوح بين 25 و 27% منذ الجائحة. ويتوقع باحثون من كلية الطب بجامعة هارفارد وجامعة كوينزلاند أن يعاني حوالي نصف سكان العالم من اضطراب في الصحة النفسية خلال حياتهم.
مخاطر الاعتماد المفرط على الذكاء الاصطناعي
تشير سرينيفاس إلى أن القلق يزداد عندما يعتمد الأفراد بشكل مفرط على استجابات الذكاء الاصطناعي، خاصة في المواقف المعقدة أو عالية الخطورة التي تتطلب حلولًا عملية ومشاركة شخص آخر يتمتع بمهارات التعاطف والتشخيص الدقيق وإدارة الأزمات في الوقت الفعلي. وتضيف أن ChatGPT لا يدرك السياق الكامل، وغالبًا ما لا يتم التعبير عن مشاعر مثل الألم والصدمة والغضب بشكل جيد عبر الرسائل النصية.
وتوضح أن للذكاء الاصطناعي حدودًا في تكوين تحالف علاجي، ولا يوفر سوى قدر محدود من المساءلة. لذا، ورغم أن النصائح قد تبدو مفيدة للوهلة الأولى، إلا أنها قد تُضعف أو تُغفل علامات الصدمة الكامنة، أو السلوكيات الدقيقة، أو حتى تُعزز التشوهات المعرفية.
الذكاء الاصطناعي كأداة لتنظيم الأهداف واتخاذ القرارات
تؤكد الدكتورة ريبيكا ستينغيسر، استشارية علم النفس السريري وأخصائية علم النفس العصبي السريري في دبي، أن هذه المشكلة تتزايد. وتقول إنها تسمع الكثير عن هذا الأمر في عيادتها، حيث يستخدم العملاء الذكاء الاصطناعي لمساعدتهم على تنظيم أهدافهم واتخاذ قرارات حياتية مهمة.
الذكاء الاصطناعي يُحدث نقلة نوعية في مجال العلاج النفسي
من الواضح أن الذكاء الاصطناعي بدأ يُحدث نقلة نوعية في مجال العلاج النفسي ودعم الصحة النفسية. ونشهد اليوم ظهور أدوات مدعومة بالذكاء الاصطناعي تُقدم خدمات التثقيف النفسي، وفحص الأعراض، ونصائح تدوين اليوميات، وتتبع الحالة المزاجية، وحتى التدخلات المعرفية السلوكية الأساسية. وتضيف أن هذه هي المعلومات التي تشاركها عادةً مع العملاء في الجلسات التقليدية.
الذكاء الاصطناعي ليس بديلاً عن العلاج النفسي
وتشير إلى أنه في حين أن هذه الأدوات يمكن أن تكون إضافات مفيدة للعلاج، خاصة لمراقبة التقدم بين الجلسات أو تقديم الدعم الفوري منخفض الكثافة، فإنها لا تحل محل العمل الدقيق والعلائقي والفردي للغاية الذي يحدث في العلاج النفسي.
وتضيف أنها رأت أيضًا أفرادًا يستخدمون الذكاء الاصطناعي لاستكشاف ما إذا كانت تجاربهم متوافقة مع تشخيصات معينة، وهو ما ينطوي على مخاطر جسيمة، خاصة إذا كانوا يتخذون قرارات بشأن الأدوية بناءً على هذه المعلومات دون استشارة أطبائهم النفسيين.
عواقب استخدام الذكاء الاصطناعي قبل اللجوء إلى متخصص
ديفيكا مانكاني، طبيبة نفسية في مركز The Hundred Wellness Centre في دبي، والتي تتمتع بخبرة 25 عامًا، شهدت عواقب استخدام الذكاء الاصطناعي على المرضى الذين لجأوا إليها بعد استخدامه.
وتقول إنها رأت عملاء يأتون إلى جلسات العلاج بعد أشهر من الاعتماد على أدوات الذكاء الاصطناعي. ففي إحدى الحالات، اعتقدت امرأة أنها تعيش حياة زوجية سامة لأن شات جي بي تي ChatGPT كان يؤكد إحباطاتها مرارًا وتكرارًا دون أي سياق أو تحدٍّ. واعترفت لاحقًا بأنها كانت بحاجة إلى مساحة آمنة لاستكشاف أنماطها الخاصة، لا إلى أن تُدفع نحو الخروج. وفي حالة أخرى، استخدم رجل ذو سمات نرجسية الذكاء الاصطناعي لإثبات اعتقاده بأن الآخرين دائمًا على خطأ، مما عزز غروره وتجنبه التأمل الذاتي.
التقييم السريري والإشراف والمساءلة
وتقول إنه على الرغم من أن التفاعل قد يبدو علاجيًا في ذلك الوقت، إلا أنه لا يرتكز دائمًا على التقييم السريري أو الإشراف أو المساءلة.
نماذج الذكاء الاصطناعي لا تُغني عن التقييم السريري
توضح سرينيفاس أن نماذج الذكاء الاصطناعي تُدرّب على بيانات مُعمّمة، ولا يُمكنها أن تُغني عن التقييم السريري. وتحذر من خطر الاعتماد العاطفي على نظام لا يُوفّر استجابةً إنسانيةً مُتناغمة، وهو جزءٌ أساسيٌّ من الشفاء العلاجي.
حالات الاعتماد على الذكاء الاصطناعي
لقد شهدت سرينيفاس هذه الحالات بنفسها، وما ترتب عليها من عواقب مثيرة للقلق بالنسبة لأولئك الذين يعتمدون على التكنولوجيا.
وتضيف أن بعض العملاء ذكروا أنهم استشاروا ChatGPT لمعرفة ما إذا كان شريكهم يعاني من شخصية نرجسية أو اضطراب نقص الانتباه وفرط النشاط (ADHD)، وذلك غالبًا بناءً على قائمة من السمات ودون تقييم دقيق. وفي إحدى الحالات، انسحبت عميلة، وهي طفلة، تمامًا من التفاعلات الاجتماعية في العالم الواقعي، وكانت غالبًا ما تُعبّر عن أفكارها ومشاعرها عبر التطبيق. وعندما سُئلت، قالت: ChatGPT صديقي الوحيد. وتصف هذه الحالة بأنها تصديق الذكاء الاصطناعي لرواية مشوهة بسبب نقص الرؤية العلاجية.
وصمة العار المرتبطة بطلب العلاج
لا تزال وصمة العار المرتبطة بطلب العلاج تُشكّل عائقًا عالميًا. ووفقًا لدراسة نُشرت في مجلة سبرينغر نيتشر بعنوان “المواقف تجاه مشاكل الصحة النفسية لدى عينة من سكان الإمارات العربية المتحدة”، قال الباحثون: “لا تزال مشاكل الصحة النفسية تُعتبر وصمة عار في الإمارات العربية المتحدة، ربما لأسباب ثقافية”.
جهود الإمارات في إزالة وصمة العار
وقد تغير هذا الموقف منذ ذلك الحين، حيث قطعت حكومة الإمارات العربية المتحدة خطوات واسعة في إزالة وصمة العار المرتبطة بالرعاية الصحية العقلية.
سهولة التعامل مع الذكاء الاصطناعي
مع ذلك، يجد البعض أن التعامل مع الذكاء الاصطناعي أسهل من التعامل مع شخص حقيقي. ويقول الدكتور ستايسنجر إن استخدام الذكاء الاصطناعي ليس أكثر شيوعًا بين الشباب والمراهقين الذين يعتادون على المنصات الرقمية وأكثر انفتاحًا على تجربة التكنولوجيا فحسب، بل يلجأون إليه أيضًا لأنه يُعتبر أقل ترهيبًا أو إصدارًا للأحكام من المعالج النفسي في الحياة الواقعية.
استخدام المهنيين للذكاء الاصطناعي
وتضيف أنها ترى أيضًا زيادة في عدد المهنيين المشغولين الذين يستخدمون الذكاء الاصطناعي للحصول على الدعم في إدارة التوتر أو الإرهاق، خاصة عندما يتأخر الوصول إلى العلاج أو يكون محدودًا بسبب قوائم الانتظار الطويلة أو التحديات المرتبطة بجدول العمل المزدحم.
أهمية السياق في استخدام الذكاء الاصطناعي
تُقرّ بأن السياق في استخدام الذكاء الاصطناعي أساسي. فالاستماع إلى افتقار الذكاء الاصطناعي إلى عناصر أساسية في لغز بشري مُعقّد، خاصةً لمن يتخذون قرارات مصيرية في حياتهم، كإنهاء علاقاتهم، أو تغيير مساراتهم المهنية، أو تشخيص أنفسهم لمشاكل صحية نفسية، قد يكون كارثيًا.
الذكاء الاصطناعي لا يكتشف مؤشرات الخطر
من الواضح جدًا أيضًا أن الذكاء الاصطناعي لا يستطيع اكتشاف مؤشرات الخطر التي تُنذر بخطر الأذى، مثل الأفكار الانتحارية، كما يفعل المحترف المُدرَّب، وكيف يُظهِر الشخص نفسه أمام الناس، وطاقته، وسلوكه. وتوضح أن العديد من المؤشرات الدقيقة لن تُكتشف أبدًا، مُفسِّرةً سبب عدم ملاءمة العلاج عبر الإنترنت للعملاء المُعرَّضين لمخاطر عالية.
التشخيص الخاطئ وتعزيز أنماط التفكير الضارة
وتوضح أن التشخيص الخاطئ، أو التقليل من حدة الضيق، أو تعزيز أنماط التفكير الضارة هي مخاوف حقيقية للغاية، وأنها دائمًا تحذر عملائها من التركيز عليها بشكل مفرط.
تحذير الرئيس التنفيذي لشركة OpenAI
من المثير للقلق أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عبّر عن دهشته من مدى اعتماد الناس على ChatGPT: “يثق الناس ثقةً كبيرةً جدًا بـ ChatGPT، وهو أمرٌ مثيرٌ للاهتمام، لأن الذكاء الاصطناعي يُبالغ في تصديقه. ينبغي ألا نثق بهذه التقنية إلى هذا الحد”.
صعوبة الحصول على خدمات الصحة النفسية
تقول سرينيفاس إن هذه القضية تُلقي الضوء على صعوبة الحصول على خدمات الصحة النفسية المناسبة في أنحاء كثيرة من العالم. وتضيف: “التوجه إلى الذكاء الاصطناعي ليس دائمًا مسألة تفضيل، بل قد يكون أيضًا الخيار الوحيد لبعض الأفراد الذين يجدون صعوبة في الحصول على خدمات الصحة النفسية أو تحمل تكلفتها”.
دور واضعي السياسات
ترى سرينيفاس أنه يجب على واضعي السياسات إعطاء الأولوية لتمويل الصحة النفسية المجتمعية، وتوفير التغطية التأمينية، وجعل الصحة النفسية جزءًا من الرعاية الصحية الأولية. وتضيف أنه إذا لم تُعالج هذه الفجوة بجعل الخدمات متاحة للجميع، فإننا نزيد من خطر لجوء الأفراد إلى بدائل قد تكون ضارة وغير كافية.
مستقبل التكنولوجيا والصحة النفسية
يوافق مانكاني على ذلك قائلاً: “هذا التوجه لن يزول. مسؤوليتنا هي بناء مستقبل تدعم فيه التكنولوجيا ازدهار البشر، دون أن تحل محل الرعاية الإنسانية”.
و أخيرا وليس آخرا
في الختام، يظهر أن الذكاء الاصطناعي يمثل سيفًا ذا حدين في مجال الصحة النفسية، إذ يمكن أن يكون أداة مفيدة للتثقيف وتقديم الدعم الأولي، لكنه لا يغني عن العلاج النفسي المتخصص. يبقى السؤال: كيف يمكننا تحقيق التوازن بين الاستفادة من الذكاء الاصطناعي وتجنب مخاطره في هذا المجال الحساس؟










