چتباتهای درمانی؛ امید تازه یا تهدیدی پنهان برای سلامت روان؟
با رشد روزافزون استفاده از هوش مصنوعی در رواندرمانی، پرسشهای جدی درباره فرصتها و خطرات این فناوری مطرح شده است؛ آیا این ابزار میتواند ناجی بیماران باشد یا باید آن را خطری تازه دانست؟
به گزارش شهریور؛ افزایش فشار بر سیستمهای درمانی باعث شده بسیاری از بیماران برای دریافت حمایت عاطفی و روانی به سراغ چتباتهای هوش مصنوعی بروند. این تغییر تنها یک واکنش به کمبود امکانات نیست، بلکه نشانهای از دگرگونی فرهنگی بزرگتر است؛ جایی که مردم حتی در امور حساس روانی به فناوری اعتماد میکنند.
در کبک کانادا، «پیر کوت» که سالها در صف انتظار درمان مانده بود، دست به کار شد و چتباتی ساخت که با تکیه بر مدلهای زبانی و دادههای بالینی، به مشکلاتی چون اعتیاد، تروما و افسردگی پاسخ میدهد. برای او، این ابزار هم نقش درمانگر را دارد، هم دوست و حتی دفترچه یادداشت شخصی.
کارآفرینانی مثل «انسون ویتمر» نیز با تجربههای تلخ خانوادگی، پلتفرمهای مشابهی ایجاد کردهاند و معتقدند هوش مصنوعی در برخی موارد حتی از یک درمانگر انسانی بهتر عمل میکند. با این حال، متخصصانی همچون دکتر «نایجل مالیگان» از دانشگاه دوبلین هشدار میدهند که هیچ فناوری نمیتواند جای ارتباط انسانی را پر کند. او یادآور میشود: هوش مصنوعی فاقد شهود، درک عاطفی و توانایی مداخله در بحرانهای حاد مانند خطر خودکشی است.
نگرانی درباره حریم خصوصی هم جدی است. دکتر «کیت دِولین» از کینگز کالج لندن میگوید بیماران اسرار شخصیشان را به شرکتهای فناوری میسپارند، در حالی که این شرکتها برخلاف رواندرمانگران ملزم به رعایت قوانین محرمانگی نیستند. حتی پروندههایی از سوءاستفاده و پیامدهای تراژیک گزارش شده است؛ مانند شکایت مادری در فلوریدا که یک استارتاپ هوش مصنوعی را به دخالت در خودکشی پسر نوجوانش متهم کرد.
همین نگرانیها موجب شده ایالتهایی مانند نوادا، یوتا و ایلینوی محدودیتهایی برای استفاده از چتباتهای درمانی وضع کنند تا بیماران از خطر محصولات بیاعتبار محفوظ بمانند.
با این وجود، تحقیقات نشان میدهد پاسخهای تولیدشده توسط هوش مصنوعی میتواند به افراد احساس «دیده شدن» بدهد؛ قابلیتی که هم میتواند مفید باشد و هم خطرناک. چراکه بیماران ممکن است به اشتباه تصور کنند رابطهای واقعی و انسانی شکل گرفته است، در حالی که چنین نیست.
کارشناسان تاکید میکنند، جایگاه واقعی هوش مصنوعی در سلامت روان باید بهعنوان «دروازهای به سوی مراقبت» تعریف شود، نه جایگزینی آن. با این همه، برای افرادی چون کوت، این فناوری یک راه نجات است. او میگوید: «من از هوش مصنوعی برای زنده ماندن استفاده میکنم.»/ پایان پیام