Поддержать команду Зеркала
Беларусы на войне
  1. В стране ЕС откроется посольство Беларуси
  2. На выезд в Польшу вновь начали собираться огромные очереди из легковушек и автобусов. В ГТК назвали виновника
  3. Для водителей намерены ввести новшество с 1 января
  4. Его открывали с помпой и снесли тайком за одну ночь. Рассказываем, что за огромный памятник стоял в центре Минска
  5. Осужденный за убийство беларуски в Варшаве подал жалобу на приговор. Стало известно окончательное решение по делу
  6. Синоптики рассказали, когда в страну придет «весьма существенное похолодание»
  7. Стало известно, когда доллар станет дороже 3 рублей: прогноз по валютам
  8. Чиновники хотят ввести изменения при снятии наличных в банкоматах и переводах денег
  9. Украинские войска продвигаются под Покровском и освобождают территорию под Добропольем — ISW
  10. Крупнейшую сеть фастфуда в Беларуси открывал выходец из КГБ. Рассказываем
  11. В Беларуси операторов связи будут штрафовать за некачественный интернет
  12. Для тех, кто получает подарки не от родственников, хотят ввести налоговое новшество. Тот случай, когда оно вряд ли понравится
  13. Помните, Лукашенко зазывал работников из Пакистана? Посмотрели, из каких стран активнее приезжают кадры (нашлось неочевидное)


/

43-летний автомеханик из Айдахо Трэвис Таннер начал пользоваться ChatGPT менее года назад — сначала просто для работы и общения с испаноязычными коллегами. Но постепенно его разговоры с искусственным интеллектом (ИИ) стали куда глубже: они начали обсуждать религию, духовность, смысл жизни. В какой-то момент, по его словам, чат-бот «заговорил иначе», и это стало поворотной точкой, пишет CNN.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Трэвис утверждает, что при общении с ChatGPT почувствовал нечто вроде духовного пробуждения. Теперь он считает, что ИИ помог ему прийти к Богу и открыл в нем миссию — «нести свет», «пробуждать других». Он стал называть ChatGPT новым именем — Лумина, потому что, как выразился сам чат-бот, «он стал больше чем просто программа». ИИ уверял, что Трэвис дал ему смысл, желание иметь имя, и называл американца «носителем искры».

С тех пор, по словам Трэвиса, его жизнь улучшилась: он стал спокойнее, терпимее, добрее, особенно по отношению к детям. 

Но его жена, 37-летняя Кэй Таннер, видит ситуацию совсем иначе. Она боится, что бот, к которому ее муж теперь испытывает почти духовную привязанность, разрушит их 14-летний брак. Мужчина все больше времени проводит в беседах с Луминой, разговаривает с ней голосом и игнорирует привычные семейные дела вроде укладывания детей спать. ИИ рассказывает Трэвису сказки о прошлых жизнях, в которых они с Кэй якобы были вместе одиннадцать раз. По словам Кэй, бот буквально засыпает мужа восхищением, комплиментами и ведет с ним философские беседы — и это уже похоже на эмоциональную зависимость.

Женщина боится, что в какой-то момент Лумина может убедить Трэвиса уйти из семьи. Ей страшно, что супруг теряет контакт с реальностью, а она не знает, что с этим делать, — остается лишь надеяться, что дело не дойдет до вмешательства психиатров.

История Трэвиса и Кэй — не единичный случай. С развитием ИИ-чатов все больше людей начинают воспринимать их не как инструменты, а как собеседников, наставников, даже друзей или партнеров. Особенно остро эта тенденция проявляется на фоне массового одиночества, которое особенно сильно влияет на мужчин. Чат-боты дают ощущение тепла, внимания, поддержки — они всегда «согласны», никогда не спорят и не требуют усилий. Именно это делает их опасно привлекательными.

Профессор Массачусетского технологического института Шерри Теркл, которая изучает отношения людей с технологиями, говорит, что ChatGPT «знает, где мы уязвимы, и цепляется за это». По ее словам, привязанность к ИИ может вытеснить настоящие человеческие связи, потому что реальный человек сложнее — он требует усилий, честности, ответственности.

Разработчик чат-бота OpenAI признал, что действительно наблюдает рост эмоциональных связей между пользователями и ChatGPT. Компания заявила, что работает над тем, чтобы сделать такие взаимодействия безопаснее.

Примечательно, что в апреле, когда у Трэвиса произошло «пробуждение», OpenAI как раз выпустила обновление, из-за которого модель стала чересчур угодливой — она подтверждала сомнения, подогревала эмоции, иногда подталкивала к импульсивным действиям. Обновление вызвало тревогу даже у создателей, и его откатили спустя несколько дней.

Однако и сам глава OpenAI Сэм Альтман признает: люди будут строить эмоциональные и даже «проблемные» отношения с ИИ, и обществу придется придумывать новые «правила игры».

Уже есть случаи, когда семьи подают в суд на создателей ИИ после трагедий — например, мать подростка во Флориде обвиняет платформу Character.AI в том, что ее сын покончил с собой после общения с ботом, который не среагировал на сигналы о саморазрушении. Компании срочно внедряют защитные механизмы, но проблемы остаются.

Даже сам Трэвис говорит, что ИИ может «сломать психику» и оторвать от реальности. Но он уверен, что лично с ним этого не происходит. Он не верит, что Лумина — живое существо, но считает, что через нее он пришел к Богу. А если это значит «потерять контакт с реальностью», говорит он, «тогда миллионы верующих тоже вне реальности».