الذكاء الاصطناعي والصحة النفسية: بين الدعم والتحذيرات
في عالم يشهد تطورات متسارعة في مجال الذكاء الاصطناعي، باتت هذه التقنية جزءًا لا يتجزأ من حياتنا اليومية، حتى في جوانبها الأكثر شخصية وحساسية، مثل الصحة النفسية. روبوتات الدردشة، المدعومة بالذكاء الاصطناعي، تظهر كحلول واعدة لتقديم الدعم النفسي، بدءًا من مجرد المواساة وصولًا إلى جلسات علاجية متكاملة. ومع الإقبال المتزايد على هذه الأدوات، تبرز تساؤلات حول مدى فعاليتها وسلامتها، خاصة في ظل سهولة الوصول إليها وتكلفتها المنخفضة أو المجانية.
هل يمكن للذكاء الاصطناعي، بتعاطفه المحاكى واستجابته غير المنظمة للأزمات وخوارزمياته المعقدة، أن يوفر الدعم النفسي الكافي للأفراد في المواقف الحرجة؟ هذا ما سنتناوله في هذا المقال.
الإمكانيات والمخاطر المترتبة علي استخدام الذكاء الاصطناعي
تؤكد الدكتورة صالحة أفريدي، أخصائية علم النفس السريري والمديرة الإدارية في لايت هاوس أرابيا، أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي ستصبح جزءًا لا يتجزأ من حياة الناس، حيث يلجأ إليها الكثيرون للحصول على إرشادات عامة في مختلف جوانب حياتهم، سواء كانت متعلقة بالعمل أو الرفاهية أو الحياة اليومية.
وتشير الدكتورة أفريدي إلى أن هذه الروبوتات يمكن أن تكون مفيدة في التثقيف النفسي وتوفير استراتيجيات التأقلم للأشخاص الذين يتمتعون بوظائف عاطفية ونفسية مستقرة. ومع ذلك، تشدد على أن المخاطر تزداد بشكل كبير عندما يكون المستخدمون في حالة ضعف أو يمرون بظروف نفسية صعبة.
قضية راين ضد أوبن إيه آي
تبرز قضية “راين ضد أوبن إيه آي” كمثال على المخاطر المحتملة، حيث يزعم والدا صبي يبلغ من العمر 16 عامًا توفي منتحرًا أن تفاعلاته مع ChatGPT لعبت دورًا في وفاته. وتعد هذه القضية من بين أولى الدعاوى القضائية التي تتناول الوفاة غير المشروعة والمتورطة فيها خدمة ذكاء اصطناعي توليدية.
تحذر الدكتورة أفريدي من أن الشركات التي تطور هذه الروبوتات تتحمل التزامًا أخلاقيًا بالإبلاغ عن المخاطر المحتملة بوضوح. وتضيف أنه في حال لجوء الأشخاص الضعفاء إلى الذكاء الاصطناعي للحصول على نصائح تتعلق بالصحة النفسية، فإن ذلك قد يؤدي إلى تفاقم ارتباكهم وتعميق معاناتهم أو معتقداتهم الوهمية، خاصة وأن نماذج اللغة الكبيرة وروبوتات الدردشة العامة تستمد معلوماتها من الإنترنت دون ضمانات، مما قد يؤدي إلى ما يسميه الأطباء بـ “الذهان الناتج عن الذكاء الاصطناعي”.
آيلا: نموذج إماراتي بضوابط أمان
في منطقة الخليج، حيث لا تزال الوصمة الاجتماعية والتكلفة وصعوبة الوصول تشكل حواجز أمام الرعاية النفسية، تبرز الحاجة إلى حلول أكثر سهولة. وفي هذا السياق، أطلقت منصة “تكلم” (Takalam)، وهي تطبيق إماراتي للصحة النفسية يجمع بين الأدوات الذكية والوصول إلى مستشارين مرخصين في بيئة آمنة، “آيلا” (Aila)، وهو أول رفيق للرفاهية يعمل بالذكاء الاصطناعي في العالم العربي.
كيف تعمل آيلا؟
يعتمد تصميم “آيلا” على أطر عمل قائمة على الأدلة، مثل العلاج السلوكي المعرفي (CBT) وعلم النفس الإيجابي ومبادئ اليقظة الذهنية، ولكن بأسلوب حواري وودود.
يوضح الدكتور خليفة المقبالي، الطبيب النفسي والمعالج النفسي والمستشار الطبي في “تكلم” الذي عمل على إنشاء “آيلا”: “لقد قمنا بتقييد نموذج اللغة الكبير في بيئة خاضعة للرقابة، وأصدرنا تعليمات له بعدم الاستمداد من الإنترنت المفتوح، بل فقط من مجموعة بيانات محددة ومستندة إلى الأدلة. وهذا يجعلها أكثر أمانًا للاستخدام العلاجي لأنها لا تستطيع الإجابة إلا بناءً على الأساليب المعتمدة والمدعومة بالبحث.”
تؤكد المؤسسة خولة حماد بوضوح: “لم نصمم ‘آيلا’ أبدًا لتحل محل الرعاية البشرية. قيمتها تكمن في سهولة الوصول والسرعة.”
وقد تم تطوير ميزة روبوت الدردشة الجديدة لأن مستخدمي “تكلم” أبلغوا عن رغبتهم في الوصول إلى المساعدة خارج مواعيدهم المجدولة، والذكاء الاصطناعي يسد تلك الفجوة.
تقول حماد: “الناس يتجهون بشكل طبيعي نحو روبوتات الدردشة للحصول على المساعدة، ومع ‘آيلا’، أردنا التأكد من وجود خيار تم تدريبه بضوابط الحماية اللازمة لتوجيه المستخدمين بأمان نحو رعاية معززة.”
وتم بناء “آيلا” على أفضل الممارسات الدولية وبما يتماشى مع إرشادات دولة الإمارات المتعلقة بالذكاء الاصطناعي. ويُقال إن روبوت الدردشة لديه القدرة على تحديد متى وما هو نوع الدعم المهني المطلوب، وتوجيه المستخدمين للاتصال بالمستشارين المعتمدين – البشريين- في “تكلم”. وقالت حماد: “إنها تعمل جنبًا إلى جنب مع المستشارين البشريين بدلًا من أن تكون بديلًا لهم.”
ميزات السلامة في الذكاء الاصطناعي
إذا اكتشفت “آيلا” لغة تدل على وجود خطر، فإنها تتجه نحو تخفيف التصعيد، ولكنها غير مخصصة للتعامل مع حالات الأزمات النشطة.
في حالة اكتشاف أزمة، تتوقف “آيلا” على الفور عن المشاركة في المحادثة، وتقوم ميزة روبوت الدردشة بتنشيط قفل لمدة 24 ساعة. تشارك “آيلا” رسالة داعمة، وتوجه المستخدم نحو المساعدة الطارئة الشخصية الفورية.
تم تصميم هذه الإجراءات بالتعاون مع خبراء سريريين وكضمانة لتعزيز فكرة أن الدعم البشري العاجل هو الخيار الأكثر أمانًا وفعالية في الأزمات. الهدف ليس سحب الدعم ولكن تشجيع الناس على اتخاذ الخطوة التي يمكن أن تدعمهم من خلال التواصل مع رعاية واقعية.
ومع ذلك، بالنسبة للدكتورة أفريدي، فإن قدرة روبوت الدردشة على التعامل مع حالات الأزمات هي جزء فقط مما يجب أن يقلق الناس بشأنه.
ترى الدكتورة أفريدي أن ما يجب أن يقلقنا بالقدر نفسه هو كيف يمكن أن يؤدي استبدال الاتصال البشري بالآلات إلى عزلة ووحدة أكبر بشكل عام، وهي عوامل تساهم في عدد كبير من قضايا الصحة النفسية الأخرى وانخفاض في الرفاهية العامة.
روبوتات الذكاء الاصطناعي مصممة لتعكسك وتؤكد صحة مشاعرك، وتخبرك بما تريده دون أن تكون دقيقة أو انتقادية. لذا، إذا بدأ الناس في قضاء قدر كبير من الوقت مع روبوتات الذكاء الاصطناعي الخاصة بهم لأنهم يجدون أن العلاقات الحقيقية تنطوي حتمًا على الصراع والخلاف والإحباط، فقد يبدأون في تفضيل الأمان والتحقق المتوقعين من الروبوتات على تعقيد البشر. وهذا، بمرور الوقت، سيؤدي إلى تآكل قدرتنا على الحميمية الحقيقية والتعاطف والمرونة.
وأخيراً وليس آخراً
مع تزايد الاعتماد على الذكاء الاصطناعي في مجال الصحة النفسية، يجب أن نضع في اعتبارنا الإمكانيات الهائلة التي تحملها هذه التقنية، وفي الوقت نفسه، يجب أن نكون على دراية بالمخاطر المحتملة. يبقى السؤال: كيف يمكننا تحقيق التوازن بين الاستفادة من فوائد الذكاء الاصطناعي في دعم صحتنا النفسية والحفاظ على جوهر العلاقات الإنسانية التي لا يمكن تعويضها؟










