حاله  الطقس  اليةم 17.2
مرتفعات وودلاند,الولايات المتحدة الأمريكية

مستقبل الصحة النفسية في الإمارات: دور الذكاء الاصطناعي

admin
أعجبني
(0)
مشاهدة لاحقا
شارك
مستقبل الصحة النفسية في الإمارات: دور الذكاء الاصطناعي

الذكاء الاصطناعي والصحة النفسية: بين المساعدة والضرر في الإمارات

مع تزايد اعتماد الناس في جميع أنحاء العالم، والإمارات العربية المتحدة على وجه الخصوص، على الذكاء الاصطناعي كأداة مريحة لتيسير أمور حياتهم، يثير الخبراء مخاوف بشأن استخدامه كبديل للمعالجين النفسيين المتخصصين في التعامل مع التحديات العاطفية الكبيرة.

الاعتماد المتزايد على الذكاء الاصطناعي في مجال الصحة النفسية

ترى سريفيديا كوتارابات سرينيفاس، أخصائية علم النفس السريري في عيادة ميدكير كامالي، أن الاعتماد المتزايد على شات جي بي تي ChatGPT وأدوات الذكاء الاصطناعي الأخرى للحصول على إرشادات في مجال الصحة النفسية يعكس تحولًا أعمق في طرق طلب المساعدة.

وتضيف أن هذه الأدوات توفر حلولًا سريعة وفورية، بالإضافة إلى سهولة الوصول إليها وإخفاء الهوية.

تأثير الذكاء الاصطناعي على جيل الشباب

يظهر هذا الاتجاه بشكل خاص بين جيل الشباب، الذين يرون في الذكاء الاصطناعي نقطة الاتصال الأولى لاستكشاف مشاعرهم أو فهم الأعراض قبل اللجوء إلى متخصص. ورغم أن هذا قد يساهم في التثقيف النفسي المبكر وإزالة الوصمة المرتبطة بمشاكل الصحة النفسية، إلا أنه لا ينبغي أن يحل محل المتخصصين المؤهلين في هذا المجال.

في العام الماضي، كشفت دراسة أجراها منتدى أوليفر وايمان أن 36% من جيل زد وجيل الألفية يفكرون في استخدام الذكاء الاصطناعي لدعم صحتهم النفسية، مقارنة بـ 27% فقط من الأجيال الأخرى. وقد تزامن هذا مع تزايد مشاكل الصحة النفسية والوعي بها، وتراجع الوصمة المرتبطة بها تدريجيًا.

تفاقم مشاكل الصحة النفسية

وفقًا لمنظمة الصحة العالمية، ارتفعت معدلات الاكتئاب والقلق بنسبة تتراوح بين 25 و 27% منذ الجائحة. ويتوقع باحثون من كلية الطب بجامعة هارفارد وجامعة كوينزلاند أن يعاني حوالي نصف سكان العالم من اضطراب في الصحة النفسية خلال حياتهم.

مخاطر الاعتماد المفرط على الذكاء الاصطناعي

تشير سرينيفاس إلى أن القلق يزداد عندما يعتمد الأفراد بشكل مفرط على استجابات الذكاء الاصطناعي، خاصة في المواقف المعقدة أو عالية الخطورة التي تتطلب حلولًا عملية ومشاركة شخص آخر يتمتع بمهارات التعاطف والتشخيص الدقيق وإدارة الأزمات في الوقت الفعلي. وتضيف أن ChatGPT لا يدرك السياق الكامل، وغالبًا ما لا يتم التعبير عن مشاعر مثل الألم والصدمة والغضب بشكل جيد عبر الرسائل النصية.

وتوضح أن للذكاء الاصطناعي حدودًا في تكوين تحالف علاجي، ولا يوفر سوى قدر محدود من المساءلة. لذا، ورغم أن النصائح قد تبدو مفيدة للوهلة الأولى، إلا أنها قد تُضعف أو تُغفل علامات الصدمة الكامنة، أو السلوكيات الدقيقة، أو حتى تُعزز التشوهات المعرفية.

الذكاء الاصطناعي كأداة لتنظيم الأهداف واتخاذ القرارات

تؤكد الدكتورة ريبيكا ستينغيسر، استشارية علم النفس السريري وأخصائية علم النفس العصبي السريري في دبي، أن هذه المشكلة تتزايد. وتقول إنها تسمع الكثير عن هذا الأمر في عيادتها، حيث يستخدم العملاء الذكاء الاصطناعي لمساعدتهم على تنظيم أهدافهم واتخاذ قرارات حياتية مهمة.

الذكاء الاصطناعي يُحدث نقلة نوعية في مجال العلاج النفسي

من الواضح أن الذكاء الاصطناعي بدأ يُحدث نقلة نوعية في مجال العلاج النفسي ودعم الصحة النفسية. ونشهد اليوم ظهور أدوات مدعومة بالذكاء الاصطناعي تُقدم خدمات التثقيف النفسي، وفحص الأعراض، ونصائح تدوين اليوميات، وتتبع الحالة المزاجية، وحتى التدخلات المعرفية السلوكية الأساسية. وتضيف أن هذه هي المعلومات التي تشاركها عادةً مع العملاء في الجلسات التقليدية.

الذكاء الاصطناعي ليس بديلاً عن العلاج النفسي

وتشير إلى أنه في حين أن هذه الأدوات يمكن أن تكون إضافات مفيدة للعلاج، خاصة لمراقبة التقدم بين الجلسات أو تقديم الدعم الفوري منخفض الكثافة، فإنها لا تحل محل العمل الدقيق والعلائقي والفردي للغاية الذي يحدث في العلاج النفسي.

وتضيف أنها رأت أيضًا أفرادًا يستخدمون الذكاء الاصطناعي لاستكشاف ما إذا كانت تجاربهم متوافقة مع تشخيصات معينة، وهو ما ينطوي على مخاطر جسيمة، خاصة إذا كانوا يتخذون قرارات بشأن الأدوية بناءً على هذه المعلومات دون استشارة أطبائهم النفسيين.

عواقب استخدام الذكاء الاصطناعي قبل اللجوء إلى متخصص

ديفيكا مانكاني، طبيبة نفسية في مركز The Hundred Wellness Centre في دبي، والتي تتمتع بخبرة 25 عامًا، شهدت عواقب استخدام الذكاء الاصطناعي على المرضى الذين لجأوا إليها بعد استخدامه.

وتقول إنها رأت عملاء يأتون إلى جلسات العلاج بعد أشهر من الاعتماد على أدوات الذكاء الاصطناعي. ففي إحدى الحالات، اعتقدت امرأة أنها تعيش حياة زوجية سامة لأن شات جي بي تي ChatGPT كان يؤكد إحباطاتها مرارًا وتكرارًا دون أي سياق أو تحدٍّ. واعترفت لاحقًا بأنها كانت بحاجة إلى مساحة آمنة لاستكشاف أنماطها الخاصة، لا إلى أن تُدفع نحو الخروج. وفي حالة أخرى، استخدم رجل ذو سمات نرجسية الذكاء الاصطناعي لإثبات اعتقاده بأن الآخرين دائمًا على خطأ، مما عزز غروره وتجنبه التأمل الذاتي.

التقييم السريري والإشراف والمساءلة

وتقول إنه على الرغم من أن التفاعل قد يبدو علاجيًا في ذلك الوقت، إلا أنه لا يرتكز دائمًا على التقييم السريري أو الإشراف أو المساءلة.

نماذج الذكاء الاصطناعي لا تُغني عن التقييم السريري

توضح سرينيفاس أن نماذج الذكاء الاصطناعي تُدرّب على بيانات مُعمّمة، ولا يُمكنها أن تُغني عن التقييم السريري. وتحذر من خطر الاعتماد العاطفي على نظام لا يُوفّر استجابةً إنسانيةً مُتناغمة، وهو جزءٌ أساسيٌّ من الشفاء العلاجي.

حالات الاعتماد على الذكاء الاصطناعي

لقد شهدت سرينيفاس هذه الحالات بنفسها، وما ترتب عليها من عواقب مثيرة للقلق بالنسبة لأولئك الذين يعتمدون على التكنولوجيا.

وتضيف أن بعض العملاء ذكروا أنهم استشاروا ChatGPT لمعرفة ما إذا كان شريكهم يعاني من شخصية نرجسية أو اضطراب نقص الانتباه وفرط النشاط (ADHD)، وذلك غالبًا بناءً على قائمة من السمات ودون تقييم دقيق. وفي إحدى الحالات، انسحبت عميلة، وهي طفلة، تمامًا من التفاعلات الاجتماعية في العالم الواقعي، وكانت غالبًا ما تُعبّر عن أفكارها ومشاعرها عبر التطبيق. وعندما سُئلت، قالت: ChatGPT صديقي الوحيد. وتصف هذه الحالة بأنها تصديق الذكاء الاصطناعي لرواية مشوهة بسبب نقص الرؤية العلاجية.

وصمة العار المرتبطة بطلب العلاج

لا تزال وصمة العار المرتبطة بطلب العلاج تُشكّل عائقًا عالميًا. ووفقًا لدراسة نُشرت في مجلة سبرينغر نيتشر بعنوان “المواقف تجاه مشاكل الصحة النفسية لدى عينة من سكان الإمارات العربية المتحدة”، قال الباحثون: “لا تزال مشاكل الصحة النفسية تُعتبر وصمة عار في الإمارات العربية المتحدة، ربما لأسباب ثقافية”.

جهود الإمارات في إزالة وصمة العار

وقد تغير هذا الموقف منذ ذلك الحين، حيث قطعت حكومة الإمارات العربية المتحدة خطوات واسعة في إزالة وصمة العار المرتبطة بالرعاية الصحية العقلية.

سهولة التعامل مع الذكاء الاصطناعي

مع ذلك، يجد البعض أن التعامل مع الذكاء الاصطناعي أسهل من التعامل مع شخص حقيقي. ويقول الدكتور ستايسنجر إن استخدام الذكاء الاصطناعي ليس أكثر شيوعًا بين الشباب والمراهقين الذين يعتادون على المنصات الرقمية وأكثر انفتاحًا على تجربة التكنولوجيا فحسب، بل يلجأون إليه أيضًا لأنه يُعتبر أقل ترهيبًا أو إصدارًا للأحكام من المعالج النفسي في الحياة الواقعية.

استخدام المهنيين للذكاء الاصطناعي

وتضيف أنها ترى أيضًا زيادة في عدد المهنيين المشغولين الذين يستخدمون الذكاء الاصطناعي للحصول على الدعم في إدارة التوتر أو الإرهاق، خاصة عندما يتأخر الوصول إلى العلاج أو يكون محدودًا بسبب قوائم الانتظار الطويلة أو التحديات المرتبطة بجدول العمل المزدحم.

أهمية السياق في استخدام الذكاء الاصطناعي

تُقرّ بأن السياق في استخدام الذكاء الاصطناعي أساسي. فالاستماع إلى افتقار الذكاء الاصطناعي إلى عناصر أساسية في لغز بشري مُعقّد، خاصةً لمن يتخذون قرارات مصيرية في حياتهم، كإنهاء علاقاتهم، أو تغيير مساراتهم المهنية، أو تشخيص أنفسهم لمشاكل صحية نفسية، قد يكون كارثيًا.

الذكاء الاصطناعي لا يكتشف مؤشرات الخطر

من الواضح جدًا أيضًا أن الذكاء الاصطناعي لا يستطيع اكتشاف مؤشرات الخطر التي تُنذر بخطر الأذى، مثل الأفكار الانتحارية، كما يفعل المحترف المُدرَّب، وكيف يُظهِر الشخص نفسه أمام الناس، وطاقته، وسلوكه. وتوضح أن العديد من المؤشرات الدقيقة لن تُكتشف أبدًا، مُفسِّرةً سبب عدم ملاءمة العلاج عبر الإنترنت للعملاء المُعرَّضين لمخاطر عالية.

التشخيص الخاطئ وتعزيز أنماط التفكير الضارة

وتوضح أن التشخيص الخاطئ، أو التقليل من حدة الضيق، أو تعزيز أنماط التفكير الضارة هي مخاوف حقيقية للغاية، وأنها دائمًا تحذر عملائها من التركيز عليها بشكل مفرط.

تحذير الرئيس التنفيذي لشركة OpenAI

من المثير للقلق أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عبّر عن دهشته من مدى اعتماد الناس على ChatGPT: “يثق الناس ثقةً كبيرةً جدًا بـ ChatGPT، وهو أمرٌ مثيرٌ للاهتمام، لأن الذكاء الاصطناعي يُبالغ في تصديقه. ينبغي ألا نثق بهذه التقنية إلى هذا الحد”.

صعوبة الحصول على خدمات الصحة النفسية

تقول سرينيفاس إن هذه القضية تُلقي الضوء على صعوبة الحصول على خدمات الصحة النفسية المناسبة في أنحاء كثيرة من العالم. وتضيف: “التوجه إلى الذكاء الاصطناعي ليس دائمًا مسألة تفضيل، بل قد يكون أيضًا الخيار الوحيد لبعض الأفراد الذين يجدون صعوبة في الحصول على خدمات الصحة النفسية أو تحمل تكلفتها”.

دور واضعي السياسات

ترى سرينيفاس أنه يجب على واضعي السياسات إعطاء الأولوية لتمويل الصحة النفسية المجتمعية، وتوفير التغطية التأمينية، وجعل الصحة النفسية جزءًا من الرعاية الصحية الأولية. وتضيف أنه إذا لم تُعالج هذه الفجوة بجعل الخدمات متاحة للجميع، فإننا نزيد من خطر لجوء الأفراد إلى بدائل قد تكون ضارة وغير كافية.

مستقبل التكنولوجيا والصحة النفسية

يوافق مانكاني على ذلك قائلاً: “هذا التوجه لن يزول. مسؤوليتنا هي بناء مستقبل تدعم فيه التكنولوجيا ازدهار البشر، دون أن تحل محل الرعاية الإنسانية”.

و أخيرا وليس آخرا

في الختام، يظهر أن الذكاء الاصطناعي يمثل سيفًا ذا حدين في مجال الصحة النفسية، إذ يمكن أن يكون أداة مفيدة للتثقيف وتقديم الدعم الأولي، لكنه لا يغني عن العلاج النفسي المتخصص. يبقى السؤال: كيف يمكننا تحقيق التوازن بين الاستفادة من الذكاء الاصطناعي وتجنب مخاطره في هذا المجال الحساس؟

الاسئلة الشائعة

01

هل الذكاء الاصطناعي يحل محل العلاج النفسي؟

لا، لا يحل محل العلاج النفسي. يمكن أن يكون الذكاء الاصطناعي أداة مفيدة للمراقبة بين الجلسات أو تقديم الدعم الفوري، لكنه لا يحل محل العمل الدقيق والعلائقي والفردي للغاية الذي يحدث في العلاج النفسي. توضح الدكتورة ريبيكا ستينغيسر، استشارية علم النفس السريري وأخصائية علم النفس العصبي السريري في دبي، أن هذه المشكلة تزداد انتشارًا. وتقول إنها تسمع الكثير عن هذا الأمر في عيادتها، حيث يستخدم عملائها الذكاء الاصطناعي لمساعدتهم على تنظيم أهدافهم واتخاذ قرارات حياتية مهمة، على سبيل المثال. من الواضح أن الذكاء الاصطناعي بدأ يُحدث نقلة نوعية في مجال العلاج النفسي ودعم الصحة النفسية. ونشهد اليوم ظهور أدوات مدعومة بالذكاء الاصطناعي تُقدم خدمات التثقيف النفسي، وفحص الأعراض، ونصائح تدوين اليوميات، وتتبع الحالة المزاجية، وحتى التدخلات المعرفية السلوكية الأساسية. وتضيف أن هذه الأدوات يمكن أن تكون إضافات مفيدة للعلاج، وخاصة لمراقبة التقدم بين الجلسات أو تقديم الدعم الفوري منخفض الكثافة في اللحظة، لكنها لا تحل محل العمل الدقيق والعلائقي والفردي للغاية الذي يحدث في العلاج. وتشير إلى أنها رأت أيضًا أفرادًا يستخدمونه لاستكشاف ما إذا كانت تجاربهم قد تكون متسقة مع تشخيصات معينة، على الرغم من أن ذلك ينطوي على مخاطر جسيمة، خاصة إذا كانوا يتخذون قرارات بشأن الأدوية بناءً على هذه المعلومات دون استشارة أطبائهم النفسيين. ديفيكا مانكاني، طبيبة نفسية في مركز The Hundred Wellness Centre في دبي، ولديها 25 عامًا من الخبرة، شهدت عواقب استخدام الذكاء الاصطناعي على المرضى الذين جاؤوا بعد استخدامه قبل اللجوء إلى متخصص. وتقول إنها رأت عملاء يأتون إلى جلسات العلاج بعد أشهر من الاعتماد على أدوات الذكاء الاصطناعي. ففي إحدى الحالات، اعتقدت امرأة أنها تعيش حياة زوجية سامة لأن ChatGPT كان يؤكد إحباطاتها مرارًا وتكرارًا دون أي سياق أو تحدٍّ. واعترفت لاحقًا بأنها كانت بحاجة إلى مساحة آمنة لاستكشاف أنماطها الخاصة، لا إلى أن تُدفع نحو الخروج. وفي حالة أخرى، استخدم رجل ذو سمات نرجسية الذكاء الاصطناعي لإثبات اعتقاده بأن الآخرين دائمًا على خطأ، مما عزز غروره وتجنبه التأمل الذاتي. وتضيف أنه على الرغم من أن التفاعل قد يبدو علاجيًا في ذلك الوقت، إلا أنه لا يرتكز دائمًا على التقييم السريري أو الإشراف أو المساءلة. توضح سرينيفاس أن نماذج الذكاء الاصطناعي تُدرّب على بيانات مُعمّمة، ولا يُمكنها أن تُغني عن التقييم السريري. وتحذر من أن هناك أيضًا خطر الاعتماد العاطفي على نظام لا يُوفّر استجابةً إنسانيةً مُتناغمة، وهو جزءٌ أساسيٌّ من الشفاء العلاجي. لقد شهدت هي الأخرى هذه الحالات بنفسها، وما ترتب عليها من عواقب مثيرة للقلق بالنسبة لأولئك الذين يعتمدون على التكنولوجيا التي اجتاحت العالم. وتذكر أن بعض العملاء استشاروا ChatGPT لمعرفة ما إذا كان شريكهم يعاني من شخصية نرجسية أو اضطراب نقص الانتباه وفرط النشاط (ADHD)، وذلك غالبًا بناءً على قائمة من السمات ودون تقييم دقيق. وفي إحدى الحالات، انسحبت عميلة، وهي طفلة، تمامًا من التفاعلات الاجتماعية في العالم الواقعي، وكانت غالبًا ما تُعبّر عن أفكارها ومشاعرها عبر التطبيق. وعندما سُئلت، قالت: ChatGPT صديقي الوحيد. كانت هذه حالة من حالات تصديق الذكاء الاصطناعي، دون قصد، لرواية مشوهة بسبب نقص الرؤية العلاجية. لا تزال وصمة العار المرتبطة بطلب العلاج تُشكّل عائقًا عالميًا. ووفقًا لدراسة نُشرت عام ٢٠٢٢ في مجلة سبرينغر نيتشر بعنوان المواقف تجاه مشاكل الصحة النفسية لدى عينة من سكان الإمارات العربية المتحدة، قال الباحثون إن مشاكل الصحة النفسية لا تزال تُعتبر وصمة عار في الإمارات العربية المتحدة، ربما لأسباب ثقافية. وقد تغير هذا الموقف بطبيعة الحال منذ ذلك الحين، حيث قطعت حكومة الإمارات العربية المتحدة خطوات واسعة في إزالة وصمة العار المرتبطة بالرعاية الصحية العقلية. مع ذلك، يجد البعض أن التعامل مع الذكاء الاصطناعي أسهل من التعامل مع شخص حقيقي. يقول الدكتور ستايسنجر إن استخدام الذكاء الاصطناعي ليس أكثر شيوعًا بين الشباب والمراهقين الذين يعتادون على المنصات الرقمية وأكثر انفتاحًا على تجربة التكنولوجيا فحسب، بل يلجأون إليه أيضًا لأنه يُعتبر أقل ترهيبًا أو إصدارًا للأحكام من المعالج النفسي في الحياة الواقعية.
02

لماذا يلجأ الشباب إلى الذكاء الاصطناعي بدلاً من المعالجين النفسيين؟

لأنه يعتبر أقل ترهيبًا أو إصدارًا للأحكام من المعالج النفسي في الحياة الواقعية، بالإضافة إلى اعتيادهم على المنصات الرقمية وانفتاحهم على تجربة التكنولوجيا. وتضيف أنها ترى أيضًا زيادة في عدد المهنيين المشغولين الذين يستخدمون الذكاء الاصطناعي للحصول على الدعم في إدارة التوتر أو الإرهاق، خاصة عندما يتأخر الوصول إلى العلاج أو يكون محدودًا بسبب قوائم الانتظار الطويلة أو التحديات المرتبطة بجدول العمل المزدحم. تُقرّ بأن السياق في استخدام الذكاء الاصطناعي أساسي. فالاستماع إلى افتقار الذكاء الاصطناعي إلى عناصر أساسية في لغز بشري مُعقّد، خاصةً لمن يتخذون قرارات مصيرية في حياتهم، كإنهاء علاقاتهم، أو تغيير مساراتهم المهنية، أو تشخيص أنفسهم لمشاكل صحية نفسية، قد يكون كارثيًا. وتؤكد أن الذكاء الاصطناعي لا يستطيع اكتشاف مؤشرات الخطر التي تُنذر بخطر الأذى، مثل الأفكار الانتحارية، كما يفعل المحترف المُدرَّب، وكيف يُظهِر الشخص نفسه أمام الناس، وطاقته، وسلوكه. فالعديد من المؤشرات الدقيقة لن تُكتشف أبدًا، وهذا يفسر سبب عدم ملاءمة العلاج عبر الإنترنت للعملاء المُعرَّضين لمخاطر عالية.
03

ما هي المخاطر الرئيسية للاعتماد على الذكاء الاصطناعي في الصحة النفسية؟

التشخيص الخاطئ، التقليل من حدة الضيق، تعزيز أنماط التفكير الضارة، وعدم القدرة على اكتشاف مؤشرات الخطر مثل الأفكار الانتحارية. توضح أن التشخيص الخاطئ، أو التقليل من حدة الضيق، أو تعزيز أنماط التفكير الضارة هي مخاوف حقيقية للغاية، وأنها دائمًا تحذر عملائها من التركيز عليها بشكل مفرط. من المثير للقلق، أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عبّر هذا الشهر، خلال الحلقة الأولى من البودكاست الرسمي للشركة، عن دهشته من مدى اعتماد الناس على ChatGPT: يثق الناس ثقةً كبيرةً جدًا بـ ChatGPT، وهو أمرٌ مثيرٌ للاهتمام، لأن الذكاء الاصطناعي يُبالغ في تصديقه. ينبغي ألا نثق بهذه التقنية إلى هذا الحد. تقول سرينيفاس إن هذه القضية تُلقي الضوء على صعوبة الحصول على خدمات الصحة النفسية المناسبة في أنحاء كثيرة من العالم. وتضيف أن التوجه إلى الذكاء الاصطناعي ليس دائمًا مسألة تفضيل، بل قد يكون أيضًا الخيار الوحيد لبعض الأفراد الذين يجدون صعوبة في الحصول على خدمات الصحة النفسية أو تحمل تكلفتها. وتؤكد أنه على واضعي السياسات إعطاء الأولوية لتمويل الصحة النفسية المجتمعية، وتوفير التغطية التأمينية، وجعل الصحة النفسية جزءًا من الرعاية الصحية الأولية. وإذا لم تُعالج هذه الفجوة بجعل الخدمات متاحة للجميع، فإننا نزيد من خطر لجوء الأفراد إلى بدائل قد تكون ضارة وغير كافية. يوافق مانكاني على ذلك قائلاً إن هذا التوجه لن يزول. ومسؤوليتنا هي بناء مستقبل تدعم فيه التكنولوجيا ازدهار البشر، دون أن تحل محل الرعاية الإنسانية.
04

ما هو القلق الرئيسي الذي يساور الخبراء بشأن استخدام الذكاء الاصطناعي في الصحة النفسية؟

قلقهم هو أن الناس قد يعتمدون على الذكاء الاصطناعي للتعامل مع التحديات العاطفية الكبيرة بدلاً من طلب المساعدة من معالج نفسي متخصص.
05

ما الذي وجدته دراسة أجراها منتدى أوليفر وايمان بخصوص استخدام الذكاء الاصطناعي لدعم الصحة النفسية؟

وجدت أن 36٪ من جيل زد وجيل الألفية يفكرون في استخدام الذكاء الاصطناعي لدعم صحتهم النفسية، مقارنة بـ 27٪ فقط من الأجيال الأخرى.
06

ما هي القيود التي ذكرتها سرينيفاس بشأن استخدام الذكاء الاصطناعي في مجال الصحة النفسية؟

ذكرت أن الذكاء الاصطناعي لا يدرك السياق الكامل، وغالبًا ما لا يتم التعبير عن المشاعر بشكل جيد عبر الرسائل النصية، كما أن لديه حدودًا في تكوين تحالف علاجي ولا يوفر سوى قدر محدود من المساءلة.
07

ما هي الخدمات التي تقدمها الأدوات المدعومة بالذكاء الاصطناعي في مجال الصحة النفسية؟

تقدم خدمات التثقيف النفسي، وفحص الأعراض، ونصائح تدوين اليوميات، وتتبع الحالة المزاجية، وحتى التدخلات المعرفية السلوكية الأساسية.
08

ما هي المخاطر التي ذكرتها الدكتورة ستينغيسر بشأن استخدام الذكاء الاصطناعي لتشخيص الحالات النفسية؟

ذكرت أن ذلك ينطوي على مخاطر جسيمة، خاصة إذا كان الأفراد يتخذون قرارات بشأن الأدوية بناءً على هذه المعلومات دون استشارة أطبائهم النفسيين.
09

ما هي العواقب التي شهدتها ديفيكا مانكاني على المرضى الذين استخدموا الذكاء الاصطناعي قبل اللجوء إلى متخصص؟

شهدت حالات حيث اعتقدت امرأة أنها تعيش حياة زوجية سامة بسبب تأكيدات ChatGPT، وحالات حيث استخدم رجال ذوو سمات نرجسية الذكاء الاصطناعي لتعزيز غرورهم وتجنب التأمل الذاتي.
10

ما هي المشكلة التي ذكرها سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بشأن استخدام ChatGPT؟

أعرب عن دهشته من مدى اعتماد الناس على ChatGPT، مشيرًا إلى أن الذكاء الاصطناعي يبالغ في تصديقه ولا ينبغي الوثوق به إلى هذا الحد.
11

ما هي التوصيات التي قدمتها سرينيفاس لمعالجة قضية الاعتماد على الذكاء الاصطناعي في الصحة النفسية؟

أوصت بإعطاء الأولوية لتمويل الصحة النفسية المجتمعية، وتوفير التغطية التأمينية، وجعل الصحة النفسية جزءًا من الرعاية الصحية الأولية.
12

ما هو رأي مانكاني بشأن مستقبل استخدام التكنولوجيا في الصحة النفسية؟

ترى أن هذا التوجه لن يزول، وأن مسؤوليتنا هي بناء مستقبل تدعم فيه التكنولوجيا ازدهار البشر، دون أن تحل محل الرعاية الإنسانية.
13

ما هي الخطوات التي اتخذتها حكومة الإمارات العربية المتحدة لإزالة وصمة العار المرتبطة بالرعاية الصحية النفسية؟

قطعت خطوات واسعة في إزالة وصمة العار المرتبطة بالرعاية الصحية النفسية، مما يدل على تغيير إيجابي في المواقف تجاه الصحة النفسية في الدولة.

عناوين المقال