- دوشنبه / ۹ مهر ۱۴۰۳ / ۰۲:۵۵
- دستهبندی: هوش مصنوعی
- کد خبر: 1403070806495
- خبرنگار : 71604
- چاپ
اگرچه ChatGPT یک فناوری پیشرفته و مجهز به اطلاعات گسترده در همه حوزههاست اما باید توجه داشت که یک رواندرمانگر نیست و ممکن است راهنماییهای نادرستی را ارائه دهد یا اطلاعات شخصی کاربران را فاش کند.
به گزارش ایسنا، وارد کردن عمیقترین و تاریکترین افکارتان به فناوریهای غیرقانونی میتواند خطرات عمدهای را به همراه داشته باشد.
به نقل از فست کمپانی، یکی از کاربران «تیکتاک» اخیرا در یک ویدیو به استفاده از ChatGPT برای حل کردن مشکلات روحی خود اعتراف کرد و پرسید: هیچ کس دیگری از ChatGPT به عنوان یک رواندرمانگر بدون حقوق استفاده نمیکند؟
اگرچه به نظر میرسد دوستان این کاربر از اعتراف او شگفتزده شدهاند اما او تنها نیست. تعداد زیادی از مردم به ChatGPT روی آوردهاند تا برای پیش بردن روابط دوستانه و عاشقانه یا گرفتن راهنمایی درباره چگونگی داشتن زندگی بهتر کمک بخواهند.
یکی دیگر از کاربران تیکتاک نوشت: موقعیت: من در حال ورود به جلسه درمانی هفتگی خود هستم. من زندگی خود را در ChatGPT وارد میکنم و از گفتن هیچ جزئیاتی طفره نمیروم.
کاربر دیگری از ChatGPT درخواست کرد تا توصیههایی را از سخنرانان الهامبخش و مورد علاقه او ارائه دهد.
درمانگران هوش مصنوعی چیز جدیدی نیستند. به عنوان مثال، «Woebot» در سال ۲۰۱۷ به عنوان یک کمک سلامت روان با هدف استفاده از پردازش زبان طبیعی و پاسخهای آموختهشده برای تقلید گفتوگو راهاندازی شد.
«کارل مارسی»(Carl Marci) مدیر ارشد بالینی و نویسنده کتاب «تنظیم مجدد: محافظت از مغز در عصر دیجیتال» گفت: ظهور درمانگران هوش مصنوعی برای حمایت از سلامت روان فقط یک روند فناوری نیست، بلکه یک زنگ خطر برای کار ماست. ما با عدم تطابق عرضه و تقاضا در مراقبتهای سلامت روان روبهرو هستیم که هوش مصنوعی میتواند برای رفع آنها ظاهر شود.
در آمریکا از هر سه نفر یک نفر در منطقهای زندگی میکند که با کمبود کارکنان سلامت روان روبهرو است. در عین حال، ۹۰ درصد مردم معتقدند که امروزه در آمریکا بحران سلامت روان وجود دارد. براساس این که درمان چقدر پرهزینه و غیر قابل دسترس است، جذابیت استفاده از ChatGPT بیشتر میشود زیرا این چتبات میتواند پاسخهای رایگان و سریع را ارائه دهد.
همچنین، این واقعیت که ChatGPT انسان نیست، برای برخی از افراد جذاب است و به آنها امکان میدهد تا عمیقترین و تاریکترین افکار خود را بدون ترس از قضاوت بیان کنند. با وجود این، انتقال عمیقترین و تاریکترین افکار به فناوریها که با نگرانیهایی پیرامون حفظ حریم خصوصی و نظارت همراه هستند، خالی از خطر نیست. دلیلی وجود دارد که درمانگران انسان به الزامات محرمانه نگه داشتن اطلاعات یا مسئولیتپذیری محدود میشوند.
ChatGPT برای درمانگر بودن ساخته نشده است. حتی خود ChatGPT به کاربران هشدار می دهد که گاهی ممکن است اطلاعات نادرستی را ارائه دهد یا دستورالعملهای مضر و محتوای مغرضانه تولید کند.
مارسی گفت: رویکرد مدلهای زبانی بزرگ هنوز آزمایش نشده است. این مدلها ممکن است توهمهایی را ایجاد کنند که میتواند برای افراد آسیبپذیر، منحرفکننده باشد یا حتی در صورت درخواست اشتباه به توصیههای خطرناک درباره خودکشی منجر شود.
انتهای پیام
-
دانشمند ایرانیتبار متخصص سردرد مطرح کرد
ChatGPT نمیتواند میگرن را درمان کند
-
ChatGPT رادیولوژیست شد
-
ChatGPT در تشخیص آبسه مغزی شکست خورد
-
ChatGPT در آگاهی عاطفی از انسان پیشی گرفت!
-
ChatGPT متخصص زنان و زایمان میشود!
-
ربات «ChatGPT» در آزمون پزشکی قبول شد!
-
عجیبترین پرسشهای مردم از ربات «ChatGPT»
-
افراد مبتلا به سرطان در استفاده از «ChatGPT» مراقب باشند!
-
ChatGPT هنوز نمیتواند بیماریها را تشخیص دهد
-
ChatGPT میتواند اطلاعات پزشکی قانعکننده جعل کند!
- خرید برنج ایرانی قیمت برنج ایرانی خرید بلیط هواپیما بوکینگ مبلمان اداری آهنگ سویل جمینجا خرید سی پی آپ موزیک موزیکفا بلیط فلایتودی بلیط هواپیما سرور مجازی ایران طراحی سایت فروشگاه تشک و تخت لیفت صورت با نخ ژل میکروسیلیس تعمیر ژنراتور قیمت میلگرد امروز سنگ قبر خرید هاست خرید سرور مجازی بلیط اتوبوس HP خرید سرور تاریخ ما دانلود ریمیکس جدید دانلود آهنگ معروف خرید نهال erp نرمافزار مانتو چاپ لیبل ICDL مدرک خرید سی پی کالاف تعمیرکار جک پارکینگی دانلود فیلم بهترین اینترنت گیمینگ مزایده خودرو دانلود آهنگ
- در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
- -لطفا نظرات خود را با حروف فارسی تایپ کنید.
- -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
- – ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بیاحترامی به اشخاص، قومیتها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزههای دین مبین اسلام باشد معذور است.
- – نظرات پس از تأیید مدیر بخش مربوطه منتشر میشود.