مخاوف من استخدام الذكاء الاصطناعي في العلاج النفسي

 الذكاء الاصطناعي - صورة موضوعية
الذكاء الاصطناعي - صورة موضوعية

يثير استخدام العلاج بالذكاء الاصطناعي في رعاية الصحة العقلية قلق مقدمي الخدمة والباحثين بشكل متزايد، بشأن ما إذا كانت الخوارزميات المعقدة وثغرات الخصوصية والمخاطر الأخرى يمكن أن تفوق وعد التكنولوجيا وتؤدي إلى نتائج خطيرة للمرضى.

 

في إطار الانتشار السريع لتطبيقات الذكاء الاصطناعي وعلى رأسها تشات جي بي تي، والاستخدام المتزايد لها في مجالات عديدة، ومنها المساعدة في توفير المعلومات الصحية، يتطلب الأمر إطار ينظم حدود الاستعانة بالذكاء الاصطناعي عندما يتعلق الأمر بصحة المرضى وسلامتهم، خاصة في المجال النفسي الذي يعتمد على التحاور بين المريض وطبيبه في الأساس.  

اقرأ أيضا: مستشار تحول رقمي: المنافسة في مجال الذكاء الاصطناعي تعيد تشكيل النظام العالمي

في الفترة الأخيرة، اكتشف مركز "بيو" للأبحاث أن هناك شك واسع النطاق حول ما إذا كان استخدام الذكاء الاصطناعي لتشخيص الحالات وعلاجها سيسهم في عدم تفاقم الحالات المرضية.

أشارت الجمعية الأمريكية للطب النفسي إلى الانتشار الواسع لتطبيقات الصحة العقلية، أن المنظمين يتعرضون لضغوط شديدة لمواكبة ذلك.

تقدر الجمعية الأمريكية للطب النفسي أن هناك أكثر من 10 آلاف تطبيق يتم تداولها في متاجر التطبيقات، لافتة إلى أن غالبية التطبيقات غير موافق عليها.

ومن شأن انتشار روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل تطبيقات Wysa و FDA المعتمدة، تخفيف النقص في مستشاري الصحة العقلية فيما يتعلق بحالات تعاطي المخدرات.

 

يتم نشر هذه التقنية لتحليل محادثات المرضى وتنقيح الرسائل النصية لتقديم توصيات بناءً على ما يقوله المرضى للأطباء، وفقا لموقع أكسيوس .

 

يتنبأ التطبيق بمخاطر إدمان المواد الأفيونية، ويكشف عن اضطرابات الصحة العقلية مثل الاكتئاب.

 

وأفاد موقع أكسيوس، أنه منظمة KoKo غير الربحية للصحة العقلية استخدمت مؤخرًا ChatGPT كمستشار للصحة العقلية لحوالي 4000 شخص لم يكونوا على دراية بالإجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما أثار انتقادات من علماء في الأخلاقيات الطبية.

 

كما يلجأ أشخاص آخرون إلى ChatGPT بصفتهم معالجًا شخصيًا على الرغم من التحذيرات من المنصة التي تقول إنها ليست مخصصة لغرض استخدامها للعلاج.