حاله  الطقس  اليةم 19.4
مرتفعات وودلاند,الولايات المتحدة الأمريكية

تأثير الذكاء الاصطناعي على الصحة النفسية والعلاقات الإنسانية

admin
أعجبني
(0)
مشاهدة لاحقا
شارك
تأثير الذكاء الاصطناعي على الصحة النفسية والعلاقات الإنسانية

الذكاء الاصطناعي والصحة النفسية: بين الدعم والتحذيرات

في عالم يشهد تطورات متسارعة في مجال الذكاء الاصطناعي، باتت هذه التقنية جزءًا لا يتجزأ من حياتنا اليومية، حتى في جوانبها الأكثر شخصية وحساسية، مثل الصحة النفسية. روبوتات الدردشة، المدعومة بالذكاء الاصطناعي، تظهر كحلول واعدة لتقديم الدعم النفسي، بدءًا من مجرد المواساة وصولًا إلى جلسات علاجية متكاملة. ومع الإقبال المتزايد على هذه الأدوات، تبرز تساؤلات حول مدى فعاليتها وسلامتها، خاصة في ظل سهولة الوصول إليها وتكلفتها المنخفضة أو المجانية.

هل يمكن للذكاء الاصطناعي، بتعاطفه المحاكى واستجابته غير المنظمة للأزمات وخوارزمياته المعقدة، أن يوفر الدعم النفسي الكافي للأفراد في المواقف الحرجة؟ هذا ما سنتناوله في هذا المقال.

الإمكانيات والمخاطر المترتبة علي استخدام الذكاء الاصطناعي

تؤكد الدكتورة صالحة أفريدي، أخصائية علم النفس السريري والمديرة الإدارية في لايت هاوس أرابيا، أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي ستصبح جزءًا لا يتجزأ من حياة الناس، حيث يلجأ إليها الكثيرون للحصول على إرشادات عامة في مختلف جوانب حياتهم، سواء كانت متعلقة بالعمل أو الرفاهية أو الحياة اليومية.

وتشير الدكتورة أفريدي إلى أن هذه الروبوتات يمكن أن تكون مفيدة في التثقيف النفسي وتوفير استراتيجيات التأقلم للأشخاص الذين يتمتعون بوظائف عاطفية ونفسية مستقرة. ومع ذلك، تشدد على أن المخاطر تزداد بشكل كبير عندما يكون المستخدمون في حالة ضعف أو يمرون بظروف نفسية صعبة.

قضية راين ضد أوبن إيه آي

تبرز قضية “راين ضد أوبن إيه آي” كمثال على المخاطر المحتملة، حيث يزعم والدا صبي يبلغ من العمر 16 عامًا توفي منتحرًا أن تفاعلاته مع ChatGPT لعبت دورًا في وفاته. وتعد هذه القضية من بين أولى الدعاوى القضائية التي تتناول الوفاة غير المشروعة والمتورطة فيها خدمة ذكاء اصطناعي توليدية.

تحذر الدكتورة أفريدي من أن الشركات التي تطور هذه الروبوتات تتحمل التزامًا أخلاقيًا بالإبلاغ عن المخاطر المحتملة بوضوح. وتضيف أنه في حال لجوء الأشخاص الضعفاء إلى الذكاء الاصطناعي للحصول على نصائح تتعلق بالصحة النفسية، فإن ذلك قد يؤدي إلى تفاقم ارتباكهم وتعميق معاناتهم أو معتقداتهم الوهمية، خاصة وأن نماذج اللغة الكبيرة وروبوتات الدردشة العامة تستمد معلوماتها من الإنترنت دون ضمانات، مما قد يؤدي إلى ما يسميه الأطباء بـ “الذهان الناتج عن الذكاء الاصطناعي”.

آيلا: نموذج إماراتي بضوابط أمان

في منطقة الخليج، حيث لا تزال الوصمة الاجتماعية والتكلفة وصعوبة الوصول تشكل حواجز أمام الرعاية النفسية، تبرز الحاجة إلى حلول أكثر سهولة. وفي هذا السياق، أطلقت منصة “تكلم” (Takalam)، وهي تطبيق إماراتي للصحة النفسية يجمع بين الأدوات الذكية والوصول إلى مستشارين مرخصين في بيئة آمنة، “آيلا” (Aila)، وهو أول رفيق للرفاهية يعمل بالذكاء الاصطناعي في العالم العربي.

كيف تعمل آيلا؟

يعتمد تصميم “آيلا” على أطر عمل قائمة على الأدلة، مثل العلاج السلوكي المعرفي (CBT) وعلم النفس الإيجابي ومبادئ اليقظة الذهنية، ولكن بأسلوب حواري وودود.

يوضح الدكتور خليفة المقبالي، الطبيب النفسي والمعالج النفسي والمستشار الطبي في “تكلم” الذي عمل على إنشاء “آيلا”: “لقد قمنا بتقييد نموذج اللغة الكبير في بيئة خاضعة للرقابة، وأصدرنا تعليمات له بعدم الاستمداد من الإنترنت المفتوح، بل فقط من مجموعة بيانات محددة ومستندة إلى الأدلة. وهذا يجعلها أكثر أمانًا للاستخدام العلاجي لأنها لا تستطيع الإجابة إلا بناءً على الأساليب المعتمدة والمدعومة بالبحث.”

تؤكد المؤسسة خولة حماد بوضوح: “لم نصمم ‘آيلا’ أبدًا لتحل محل الرعاية البشرية. قيمتها تكمن في سهولة الوصول والسرعة.”

وقد تم تطوير ميزة روبوت الدردشة الجديدة لأن مستخدمي “تكلم” أبلغوا عن رغبتهم في الوصول إلى المساعدة خارج مواعيدهم المجدولة، والذكاء الاصطناعي يسد تلك الفجوة.

تقول حماد: “الناس يتجهون بشكل طبيعي نحو روبوتات الدردشة للحصول على المساعدة، ومع ‘آيلا’، أردنا التأكد من وجود خيار تم تدريبه بضوابط الحماية اللازمة لتوجيه المستخدمين بأمان نحو رعاية معززة.”

وتم بناء “آيلا” على أفضل الممارسات الدولية وبما يتماشى مع إرشادات دولة الإمارات المتعلقة بالذكاء الاصطناعي. ويُقال إن روبوت الدردشة لديه القدرة على تحديد متى وما هو نوع الدعم المهني المطلوب، وتوجيه المستخدمين للاتصال بالمستشارين المعتمدين – البشريين- في “تكلم”. وقالت حماد: “إنها تعمل جنبًا إلى جنب مع المستشارين البشريين بدلًا من أن تكون بديلًا لهم.”

ميزات السلامة في الذكاء الاصطناعي

إذا اكتشفت “آيلا” لغة تدل على وجود خطر، فإنها تتجه نحو تخفيف التصعيد، ولكنها غير مخصصة للتعامل مع حالات الأزمات النشطة.

في حالة اكتشاف أزمة، تتوقف “آيلا” على الفور عن المشاركة في المحادثة، وتقوم ميزة روبوت الدردشة بتنشيط قفل لمدة 24 ساعة. تشارك “آيلا” رسالة داعمة، وتوجه المستخدم نحو المساعدة الطارئة الشخصية الفورية.

تم تصميم هذه الإجراءات بالتعاون مع خبراء سريريين وكضمانة لتعزيز فكرة أن الدعم البشري العاجل هو الخيار الأكثر أمانًا وفعالية في الأزمات. الهدف ليس سحب الدعم ولكن تشجيع الناس على اتخاذ الخطوة التي يمكن أن تدعمهم من خلال التواصل مع رعاية واقعية.

ومع ذلك، بالنسبة للدكتورة أفريدي، فإن قدرة روبوت الدردشة على التعامل مع حالات الأزمات هي جزء فقط مما يجب أن يقلق الناس بشأنه.

ترى الدكتورة أفريدي أن ما يجب أن يقلقنا بالقدر نفسه هو كيف يمكن أن يؤدي استبدال الاتصال البشري بالآلات إلى عزلة ووحدة أكبر بشكل عام، وهي عوامل تساهم في عدد كبير من قضايا الصحة النفسية الأخرى وانخفاض في الرفاهية العامة.

روبوتات الذكاء الاصطناعي مصممة لتعكسك وتؤكد صحة مشاعرك، وتخبرك بما تريده دون أن تكون دقيقة أو انتقادية. لذا، إذا بدأ الناس في قضاء قدر كبير من الوقت مع روبوتات الذكاء الاصطناعي الخاصة بهم لأنهم يجدون أن العلاقات الحقيقية تنطوي حتمًا على الصراع والخلاف والإحباط، فقد يبدأون في تفضيل الأمان والتحقق المتوقعين من الروبوتات على تعقيد البشر. وهذا، بمرور الوقت، سيؤدي إلى تآكل قدرتنا على الحميمية الحقيقية والتعاطف والمرونة.

وأخيراً وليس آخراً

مع تزايد الاعتماد على الذكاء الاصطناعي في مجال الصحة النفسية، يجب أن نضع في اعتبارنا الإمكانيات الهائلة التي تحملها هذه التقنية، وفي الوقت نفسه، يجب أن نكون على دراية بالمخاطر المحتملة. يبقى السؤال: كيف يمكننا تحقيق التوازن بين الاستفادة من فوائد الذكاء الاصطناعي في دعم صحتنا النفسية والحفاظ على جوهر العلاقات الإنسانية التي لا يمكن تعويضها؟

الاسئلة الشائعة

01

أصدقاء الذكاء الاصطناعي والصحة النفسية: نظرة في الفوائد والمخاطر

أصدقاء الذكاء الاصطناعي يسيطرون بسرعة على الجانب الأكثر خصوصية في حياتنا: الصحة النفسية. روبوتات الدردشة الآن تقدم خدمات متنوعة، بدءًا من الراحة والدعم وصولًا إلى جلسات علاج كاملة. في حين أن سهولة الوصول والتكلفة المنخفضة أو المجانية قد تجذب المستخدمين، تظل هناك تساؤلات مهمة حول السلامة والفعالية. هل يمكن للتعاطف المحاكى، والاستجابة غير المنظمة للأزمات، والخوارزميات الخفية أن توفر الدعم الكافي للصحة النفسية للأفراد في المواقف الحساسة؟
02

الإمكانات والمخاطر

تقول الدكتورة صالحة أفريدي، أخصائية علم النفس السريري والمديرة الإدارية في لايت هاوس أرابيا: روبوتات الدردشة المدعومة بالذكاء الاصطناعي باقية، وستصبح جزءًا أساسيًا من كيفية بحث الناس عن إرشادات عامة، سواء للعمل أو الرفاهية أو الحياة اليومية. تؤكد الدكتورة أفريدي أن هذه الروبوتات يمكن أن تكون مفيدة في التثقيف النفسي واستراتيجيات التأقلم للأشخاص ذوي الوظائف العاطفية والنفسية المنظمة. على الرغم من أن روبوتات الدردشة القائمة على نماذج اللغة الكبيرة، مثل ChatGPT، لا يتم الترويج لها كبديل للعلاج، إلا أن هناك أدلة متزايدة تشير إلى أن العديد من الأشخاص حول العالم يستخدمونها كأدوات للدعم العاطفي. تضيف الدكتورة أفريدي أنها مريحة لأنها تقدم استجابات فورية عندما تحتاج فقط إلى "التنفيس عما بداخلك" أو "معرفة ما يجب فعله" في موقف معين.
03

المخاطر المحتملة

عندما يكون المستخدمون في حالة ضعف، تزداد المخاطر بشكل كبير. في قضية "رين ضد أوبن إيه آي"، يزعم والدا صبي يبلغ من العمر 16 عامًا توفي منتحرًا أن تفاعلاته مع ChatGPT لعبت دورًا في وفاته، وهي من أولى دعاوى الوفاة غير المشروعة التي تتورط فيها خدمة ذكاء اصطناعي. ترى الدكتورة أفريدي أن الشركات التي تطور هذه الروبوتات تتحمل التزامًا أخلاقيًا بالإبلاغ عن هذه المخاطر بوضوح. فمن المعلومات المضللة إلى النصائح غير المناسبة، قد يؤدي لجوء الأشخاص الضعفاء إلى الذكاء الاصطناعي للحصول على نصيحة تتعلق بالصحة النفسية إلى تضخيم ارتباكهم، وتعميق ضائقتهم أو معتقداتهم الوهمية. نماذج اللغة الكبيرة وروبوتات الدردشة العامة تستمد معلوماتها من الإنترنت دون ضمانات، لذا فإن استخدامها لأغراض علاجية قد ينطوي على مخاطر، تتراوح من الهلوسة إلى ما يسميه الأطباء "الذهان الناتج عن الذكاء الاصطناعي".
04

آيلا: خيار إماراتي بضوابط أمان

في مناطق مثل الخليج، حيث لا يزال الوصم والتكلفة وصعوبة الوصول تشكل حواجز كبيرة أمام الرعاية، تزداد الحاجة إلى حلول أكثر سهولة. في هذا السياق، أطلقت منصة "تكلم"، التطبيق الإماراتي للصحة النفسية، "آيلا"، وهو أول رفيق للرفاهية يعمل بالذكاء الاصطناعي في العالم العربي.
05

كيف يعمل آيلا؟

يعتمد تصميم آيلا على أطر عمل قائمة على الأدلة مثل العلاج السلوكي المعرفي (CBT)، وعلم النفس الإيجابي، ومبادئ اليقظة الذهنية، ولكن بلغة حوارية وودودة. يوضح الدكتور خليفة المقبالي، الطبيب النفسي والمعالج النفسي والمستشار الطبي في "تكلم"، أنهم قاموا بتقييد نموذج اللغة الكبير في بيئة خاضعة للرقابة، وأصدروا تعليمات له بعدم الاستمداد من الإنترنت المفتوح، بل فقط من مجموعة بيانات محددة ومستندة إلى الأدلة، مما يجعله أكثر أمانًا للاستخدام العلاجي. تؤكد المؤسسة خولة حماد أن "آيلا" لم تصمم أبدًا لتحل محل الرعاية البشرية، بل تكمن قيمتها في سهولة الوصول والسرعة، حيث تم تطوير هذه الميزة لتلبية حاجة المستخدمين إلى المساعدة خارج مواعيدهم المجدولة. ترى حماد أن الناس يتجهون بشكل طبيعي نحو روبوتات الدردشة للحصول على المساعدة، ومع "آيلا"، أرادوا التأكد من وجود خيار تم تدريبه بضوابط الحماية اللازمة لتوجيه المستخدمين بأمان نحو رعاية معززة.
06

ميزات السلامة في آيلا

تم بناء آيلا على أفضل الممارسات الدولية وبما يتماشى مع إرشادات دولة الإمارات المتعلقة بالذكاء الاصطناعي، ولديه القدرة على تحديد متى وما هو نوع الدعم المهني المطلوب، وتوجيه المستخدمين للاتصال بالمستشارين المعتمدين. توضح حماد أن "آيلا" تعمل جنبًا إلى جنب مع المستشارين البشريين بدلاً من أن تكون بديلاً لهم. إذا اكتشفت "آيلا" لغة تدل على وجود خطر، فإنها تتجه نحو تخفيف التصعيد، ولكنها غير مخصصة للتعامل مع حالات الأزمات النشطة. في حالة اكتشاف أزمة، تتوقف "آيلا" على الفور عن المشاركة في المحادثة، وتقوم بتنشيط قفل لمدة 24 ساعة، مع إرسال رسالة داعمة وتوجيه المستخدم نحو المساعدة الطارئة الشخصية الفورية. تهدف هذه الإجراءات، المصممة بالتعاون مع خبراء سريريين، إلى تعزيز فكرة أن الدعم البشري العاجل هو الخيار الأكثر أمانًا وفعالية في الأزمات. ومع ذلك، بالنسبة للدكتورة أفريدي، فإن قدرة روبوت الدردشة على التعامل مع حالات الأزمات هي جزء فقط مما يجب أن يقلق الناس بشأنه. ترى الدكتورة أفريدي أن استبدال الاتصال البشري بالآلات قد يؤدي إلى عزلة ووحدة أكبر، وهي عوامل تساهم في عدد كبير من قضايا الصحة النفسية الأخرى وانخفاض في الرفاهية العامة. روبوتات الذكاء الاصطناعي مصممة لتعكسك وتؤكد صحة مشاعرك، وتخبرك بما تريده دون أن تكون دقيقة أو انتقادية. لذا، إذا بدأ الناس في قضاء وقت كبير مع روبوتات الذكاء الاصطناعي لأنهم يجدون أن العلاقات الحقيقية تنطوي حتماً على الصراع والخلاف والإحباط، فقد يبدأون في تفضيل الأمان والتحقق المتوقعين من الروبوتات على تعقيد البشر، مما قد يؤدي بمرور الوقت إلى تآكل قدرتنا على الحميمية الحقيقية والتعاطف والمرونة.
07

ما هي أبرز الفوائد التي يمكن أن تقدمها روبوتات الدردشة المدعومة بالذكاء الاصطناعي في مجال الصحة النفسية؟

يمكن أن تقدم روبوتات الدردشة المدعومة بالذكاء الاصطناعي الدعم العاطفي الفوري، والتثقيف النفسي، واستراتيجيات التأقلم، وتكون متاحة بسهولة وبتكلفة منخفضة أو مجانية، مما يجعلها خيارًا جذابًا للعديد من الأشخاص.
08

ما هي المخاطر المحتملة لاستخدام روبوتات الدردشة كبديل للعلاج النفسي التقليدي؟

تشمل المخاطر المحتملة تقديم معلومات مضللة أو نصائح غير مناسبة، وتضخيم الارتباك أو الضيق لدى المستخدمين الضعفاء، واحتمالية تطوير "الذهان الناتج عن الذكاء الاصطناعي"، بالإضافة إلى خطر العزلة والوحدة بسبب استبدال الاتصال البشري بالآلات.
09

ما هي الضوابط الأمنية التي تميز "آيلا"، أول رفيق للرفاهية يعمل بالذكاء الاصطناعي في العالم العربي؟

تعتمد "آيلا" على أطر عمل قائمة على الأدلة مثل العلاج السلوكي المعرفي وعلم النفس الإيجابي، وتعمل في بيئة خاضعة للرقابة حيث تستمد معلوماتها فقط من مجموعة بيانات محددة ومستندة إلى الأدلة، بالإضافة إلى وجود إجراءات للتعامل مع حالات الأزمات وتوجيه المستخدمين نحو المساعدة الطارئة.
10

كيف يمكن لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي أن تؤثر على قدرة الأفراد على بناء علاقات حميمة حقيقية؟

قد يؤدي الاعتماد المفرط على روبوتات الدردشة إلى تفضيل الأمان والتحقق المتوقعين من الروبوتات على تعقيد العلاقات البشرية، مما قد يؤدي بمرور الوقت إلى تآكل قدرة الأفراد على الحميمية الحقيقية والتعاطف والمرونة.
11

ما هو دور الشركات التي تطور روبوتات الدردشة في ضمان سلامة المستخدمين؟

يجب على الشركات التي تطور روبوتات الدردشة أن تتحمل التزامًا أخلاقيًا بالإبلاغ عن المخاطر المحتملة بوضوح، وتطوير ضوابط أمنية فعالة، والتأكد من أن هذه الروبوتات لا تقدم معلومات مضللة أو نصائح غير مناسبة، وتوجيه المستخدمين نحو الرعاية المهنية المناسبة عند الحاجة.
12

ما هي أهمية وجود مستشارين بشريين في مجال الصحة النفسية بجانب استخدام الذكاء الاصطناعي؟

يظل المستشارون البشريون ضروريين لتقديم الدعم العاطفي العميق، والتقييم الدقيق للحالات، وتقديم العلاج المناسب للاحتياجات الفردية، خاصة في الحالات المعقدة أو حالات الأزمات، حيث لا يمكن للذكاء الاصطناعي أن يحل محل الخبرة والتعاطف البشري.
13

كيف يمكن للمنصات الرقمية مثل "تكلم" أن تساهم في تحسين الوصول إلى خدمات الصحة النفسية في منطقة الخليج؟

يمكن للمنصات الرقمية أن تقلل من الوصم المرتبط بالصحة النفسية، وتخفيف التكاليف، وتوفير الوصول إلى الخدمات في المناطق النائية، وتقديم الدعم الفوري والمستمر، مما يجعل الرعاية النفسية أكثر سهولة وراحة للأفراد.
14

ما هي الاعتبارات الأخلاقية الرئيسية التي يجب مراعاتها عند تطوير واستخدام روبوتات الدردشة في مجال الصحة النفسية؟

تشمل الاعتبارات الأخلاقية الرئيسية ضمان سلامة المستخدمين، وحماية خصوصيتهم، وتجنب تقديم معلومات مضللة أو نصائح غير مناسبة، وتوضيح حدود قدرات الذكاء الاصطناعي، والحفاظ على دور المستشارين البشريين كجزء أساسي من الرعاية النفسية.
15

ما هي الخطوات التي يمكن اتخاذها لضمان استخدام الذكاء الاصطناعي في مجال الصحة النفسية بطريقة مسؤولة وفعالة؟

تشمل الخطوات الضرورية وضع إرشادات واضحة للاستخدام، وتدريب الروبوتات على بيانات دقيقة وموثوقة، وإجراء تقييمات منتظمة للأداء، وتوفير آليات للتعامل مع حالات الأزمات، والتأكد من وجود إشراف بشري مناسب، وتعزيز الوعي العام حول فوائد ومخاطر استخدام الذكاء الاصطناعي في الصحة النفسية.
16

كيف يمكن للمستخدمين الاستفادة من روبوتات الدردشة المدعومة بالذكاء الاصطناعي مع الحفاظ على صحتهم النفسية وسلامتهم؟

يجب على المستخدمين أن يكونوا على دراية بحدود قدرات روبوتات الدردشة، واستخدامها كأداة مساعدة وليست بديلاً للعلاج البشري، والتحقق من مصداقية المعلومات المقدمة، والبحث عن المساعدة المهنية عند الحاجة، والحفاظ على توازن صحي بين استخدام التكنولوجيا والتفاعل الاجتماعي الحقيقي.