Почему использовать ИИ для решения своих психологических трудностей может быть опасно

Если вы используете нейросети для решения различных психологических трудностей, то это может быть опасно для вашего психического здоровья. Это не преувеличение.

На написание этой заметки меня сподвиг один случай моего взаимодействия с ИИ, который показался мне очень показательным.

Нейросети: помощники или «помощники»?

Я не использую ИИ-нейросети для написания статей для своего персонального сайта и канала (разумеется), но иногда могу использовать их для решения прикладных задач.

Например, чтобы посмотреть, как может выглядеть моя статья в кратком пересказе или уменьшенная по объёму в два раза (поскольку иногда могу писать не так кратко, как мне бы хотелось).

И не так давно я решил посмотреть на подобный материал, предложив нейросети мою статью, которая затрагивала чрезвычайно злободневную, но при этом очень неоднозначную, тему.

Я предложил ИИ переписать мой материал своими словами, при этом сделав свои выводы.

Каково же было мое удивление, когда ИИ обозначил выводы, противоположные моим, подвергнув сомнениям буквально каждый из обозначенных пунктов.

Вам нейросеть когда-нибудь пыталась показать, что вы неправы, причем в вашей профессиональной области, причем когда вы обозначаете совершенно базовые постулаты психологической науки? Вот у меня такого не было. Вплоть до этого самого момента.

Испытав, так скажем, невероятное удивление, я в следующей итерации предложил ИИ воздержаться от собственных выводов и кратко пересказать содержание статьи. В ответ я получил текст, который вроде бы передавал основную суть моей статьи, но при этом материал был подан так, словно у него, ИИ, есть большие сомнения, что автор прав.

Я поставил задачу еще раз, чтобы текста получилось больше, в результате чего несогласие ИИ вышло более «разбавленным», но общий настрой материала остался тем же. Занимательно, не так ли?

Что бы это значило?

Мы знаем, что нейросети не являются полностью объективными. Существуют определенный перечень тем, в которых ИИ дадут вам не просто материалы и выводы, а «какие надо» материалы и выводы. И если вы не знали до этого, как реально обстоят дела, то рискуете принять это за правду: подобно тому, как у представителей определенного поколения принято принимать информацию из Википедии как истину в последней инстанции.

Кроме того, стоит вспомнить о том, что нейросети учатся на больших объемах данных, лежащих в свободном доступе, при этом часть этих данных может быть как банально ошибочной, так и вовсе – откровенно ложной.

Возможно, вы слышали историю про австралийца Марка Полларда, который решил спланировать поездку в Исландию, советуясь с ИИ. Бот, оперируя устаревшими данными, с полной уверенностью сообщил мужчине, что визу в эту страну он сможет приобрести на месте: покупать ее заранее не нужно.

И тот, не перепроверив данные, купил билет и оправился было в путешествие, но сесть в самолет не смог, поскольку нейросеть ошиблась, и виза еще как нужна была. К слову сказать, этот человек занимает крупный пост, а работа его связана со стратегическим планированием…

ИИ и психология

Но если в подобной истории теряются деньги, некоторое количество нервов и время, то что происходит, если нейросеть используется для куда более сложных и неоднозначных вещей? Например, вы советуетесь с ИИ, используя его в качестве аналога личного психолога. О какой важной информации может забыть сказать вам этот «психолог»? Или «забыть» сказать?

В этом случае мы рискуем не узнать о какой-то базовой, очень важной информации о себе или о мире, или даже узнать что-то, что полностью противоречит правде.

И в этом случае ценой ошибки могут быть разрушенные буквально на пустом месте отношения, проблемы в профессиональной жизни и даже банально сложности психического или даже физического здоровья – просто благодаря тому, как мы, зацепившись мыслью за какие-то слова, синтезированные искусственным мозгом, можем свернуть в этой жизни куда-то не туда. Просто в силу того, что рядом с нами в этот момент не было живого – настоящего — человека…

Поэтому да: если вы доверяете вашу психику искусственному интеллекту, то последствия для психической жизни могут быть труднопредсказуемыми.

Что с этим делать?

Что можно сделать, чтобы не допустить подобных трудностей?

Первое: выберите психолога-человека.

И второе, не менее важное: потратьте достаточно много времени, чтобы убедиться в том, что этот специалист будет полезен для вас.

Если у вас есть знакомые, чья жизнь действительно начала меняться в лучшую сторону в ходе психотерапии, попросите у них контакт этого специалиста. А если он не может взять вас в работу, попросите у него контакт коллеги, похожего на него.

Хотя бы так.

Подведем итоги

ИИ-нейросети, подающиеся как универсальные помощники для решения любых вопросов, имеют ряд искусственно установленных ограничений, о сути которых мы на самом деле почти ничего не знаем.

Кроме того, в определенных вопросах ИИ мог обучаться на ошибочных или ложных данных, что также явным образом нам не видно.

Поэтому использовать нейросети в вопросах с высокой стоимостью ошибки (и речь не про деньги) может быть очень опасно, даже если вы потом перепроверяете эти данные в других источниках, потому что как ты это вообще проверишь?

Как минимум поэтому в вопросах психического здоровья и психотерапии помощь от ИИ может быть опаснее, чем вообще отсутствие помощи. И если вам такая помощь требуется, имеет смысл обращаться к психологу-человеку, которого важно тщательно отбирать.

Забота о себе в преддверии технологической сингулярности требует особых подходов.

Будьте здоровы.

Евгений Махлин, психоаналитический психолог

Loading


Больше интересных материалов - в телеграм-канале: https://t.me/psy_makhlin/
Рейтинг
( 6 оценок, среднее 5 из 5 )
Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: