چت‌بات‌های درمانی؛ امید تازه یا تهدیدی پنهان برای سلامت روان؟

با رشد روزافزون استفاده از هوش مصنوعی در روان‌درمانی، پرسش‌های جدی درباره فرصت‌ها و خطرات این فناوری مطرح شده است؛ آیا این ابزار می‌تواند ناجی بیماران باشد یا باید آن را خطری تازه دانست؟

چت‌بات‌های درمانی؛ امید تازه یا تهدیدی پنهان برای سلامت روان؟
هوش مصنوعی در نقش روان‌درمانگر؛ ناجی بیماران یا خطری خاموش؟

به گزارش شهریور؛ افزایش فشار بر سیستم‌های درمانی باعث شده بسیاری از بیماران برای دریافت حمایت عاطفی و روانی به سراغ چت‌بات‌های هوش مصنوعی بروند. این تغییر تنها یک واکنش به کمبود امکانات نیست، بلکه نشانه‌ای از دگرگونی فرهنگی بزرگ‌تر است؛ جایی که مردم حتی در امور حساس روانی به فناوری اعتماد می‌کنند.

در کبک کانادا، «پیر کوت» که سال‌ها در صف انتظار درمان مانده بود، دست به کار شد و چت‌باتی ساخت که با تکیه بر مدل‌های زبانی و داده‌های بالینی، به مشکلاتی چون اعتیاد، تروما و افسردگی پاسخ می‌دهد. برای او، این ابزار هم نقش درمانگر را دارد، هم دوست و حتی دفترچه یادداشت شخصی.

کارآفرینانی مثل «انسون ویت‌مر» نیز با تجربه‌های تلخ خانوادگی، پلتفرم‌های مشابهی ایجاد کرده‌اند و معتقدند هوش مصنوعی در برخی موارد حتی از یک درمانگر انسانی بهتر عمل می‌کند. با این حال، متخصصانی همچون دکتر «نایجل مالیگان» از دانشگاه دوبلین هشدار می‌دهند که هیچ فناوری نمی‌تواند جای ارتباط انسانی را پر کند. او یادآور می‌شود: هوش مصنوعی فاقد شهود، درک عاطفی و توانایی مداخله در بحران‌های حاد مانند خطر خودکشی است.

نگرانی درباره حریم خصوصی هم جدی است. دکتر «کیت دِولین» از کینگز کالج لندن می‌گوید بیماران اسرار شخصی‌شان را به شرکت‌های فناوری می‌سپارند، در حالی که این شرکت‌ها برخلاف روان‌درمانگران ملزم به رعایت قوانین محرمانگی نیستند. حتی پرونده‌هایی از سوءاستفاده و پیامدهای تراژیک گزارش شده است؛ مانند شکایت مادری در فلوریدا که یک استارتاپ هوش مصنوعی را به دخالت در خودکشی پسر نوجوانش متهم کرد.

همین نگرانی‌ها موجب شده ایالت‌هایی مانند نوادا، یوتا و ایلینوی محدودیت‌هایی برای استفاده از چت‌بات‌های درمانی وضع کنند تا بیماران از خطر محصولات بی‌اعتبار محفوظ بمانند.

با این وجود، تحقیقات نشان می‌دهد پاسخ‌های تولیدشده توسط هوش مصنوعی می‌تواند به افراد احساس «دیده شدن» بدهد؛ قابلیتی که هم می‌تواند مفید باشد و هم خطرناک. چراکه بیماران ممکن است به اشتباه تصور کنند رابطه‌ای واقعی و انسانی شکل گرفته است، در حالی که چنین نیست.

کارشناسان تاکید می‌کنند، جایگاه واقعی هوش مصنوعی در سلامت روان باید به‌عنوان «دروازه‌ای به سوی مراقبت» تعریف شود، نه جایگزینی آن. با این همه، برای افرادی چون کوت، این فناوری یک راه نجات است. او می‌گوید: «من از هوش مصنوعی برای زنده ماندن استفاده می‌کنم.»/ پایان پیام