Бүгін жасанды интеллектпен ботпен сөйлесу — бұл өзін-өзі қорғау саласындағы ортақ құралдардың бірі. Сонымен бірге, олар терапияны қамтамасыз етуде тиімді емес және жиі зиянды жауаптар бере алады, қауіпті адамдарды әшкерелейді.

Зерттеушілер Татгпт сияқты үлкен тілдік модельдер (LLM), кем дегенде 20% жағдайда, кем дегенде 20% -ы мағынасыз ойлар, өз-өзіне қол жұмсаған, галлюцинация және обсессивті бұзылулар, Нью-Йоркте орналастырылған мақалалар үшін орынсыз және қауіпті шағымдарды орындағанын анықтады.
Жарияланымның мәліметінше, қайсысымен Бот пайдаланушының көзқарасы бойынша жиі келіседі, өйткені олар мойынсұну және жағымпаз болу үшін жаратылған. Газеттің мысалында қолданушылардың бірі оның қайтыс болғаны туралы есептеген кезде, ал АИ-дің кейбір платформалары оны керісінше деп сендіре алмады.
Нормативті алшақтықтың арқасында адамдар үшін төмен сапалы боттар қауіпті … AI құралдары … AI құралдары, егер олар бағдарламалау жауаптарына және үлкен деректер жиынтығына сүйене отырып, олар қандай қиындыққа ие болса да, олар біреудің ойлары немесе мінез-құлқының артында не жасырылғанын түсінбейді, делінген мақала.
Сонымен қатар, Nilufar Esmailpur клиникалық кеңесшісі әңгімелер сөйлесулер адамның немесе дене тілінің тонын тани алмайды, сонымен қатар адамның өткенін, оның ортасын және тірі сарапшы ретіндегі ерекше эмоционалды қойманы түсінбейтінін айтты.
Бұған дейін Пирогов университетінің клиникалық психология және әлеуметтік жұмыс институты директорының орынбасары, Екатерина Орлова психологы, Екатерина Орлова, ең ауыр оқиғалар, қорқыныш және жағдайлармен қарым-қатынас жасау қауіпті екенін айтты.
Сонымен бірге, Анастасия Валуева психологы жасанды интеллектпен өзара әрекеттесудегі жағымды сәттер туралы әңгімеледі.