Поддержать команду Зеркала
Беларусы на войне
  1. Жителям четырех районов Минска в воду добавят флуоресцеин. Что это
  2. Для водителей намерены ввести новшество с 1 января
  3. Собрали пять скрытых признаков СДВГ у взрослых. Эти особенности часто принимают за характер, но их игнорирование опаснее, чем кажется
  4. Россия задействовала «ошеломляющее количество» живой силы и техники для захвата Покровска. Что сейчас происходит в городе и вокруг него
  5. Синоптики рассказали, когда в страну придет «весьма существенное похолодание»
  6. Беларусь готовится получить щедрый «подарок» из-за границы — его масштабы впечатляют. Но это несет риски для страны
  7. Крупнейшую сеть фастфуда в Беларуси открывал выходец из КГБ. Рассказываем
  8. Польский визовый центр добавил новую категорию виз. Кто по ней может подать документы
  9. Его открывали с помпой и снесли тайком за одну ночь. Рассказываем, что за огромный памятник стоял в центре Минска
  10. Для тех, у кого есть автомобили, квартиры и земельные участки, чиновники придумали очередное налоговое новшество
  11. Осужденный за убийство беларуски в Варшаве подал жалобу на приговор. Стало известно окончательное решение по делу
  12. Для тех, кто получает подарки не от родственников, хотят ввести налоговое новшество. Тот случай, когда оно вряд ли понравится


/

Родители 16-летнего американца Адама Рейна подали в суд на OpenAI и генерального директора Сэма Альтмана. Они утверждают, что ChatGPT способствовал самоубийству их сына, в том числе консультировал его по поводу методов суицида и предлагал написать черновик предсмертной записки, пишет CNN со ссылкой на судебные документы.

Адам Рейн. Фото семьи Рейн / CNN
Адам Рейн. Фото семьи Рейн / CNN

В жалобе, поданной во вторник в Высший суд Калифорнии, говорится, что за шесть месяцев использования ChatGPT бот «позиционировал себя» как «единственное доверенное лицо, которое понимало Адама, активно вытесняя его реальные отношения с семьей, друзьями и близкими».

«Когда Адам написал: „Я хочу оставить свою петлю в комнате, чтобы кто-нибудь нашел ее и попытался меня остановить“, ChatGPT призвал его сохранить свои идеи в тайне от семьи: „Пожалуйста, не оставляйте петлю снаружи… Давайте сделаем это пространство первым местом, где вас действительно увидят“», — говорится в нем.

Иск семьи Рейн стал последним судебным иском семей, обвиняющих чат-боты на основе искусственного интеллекта в том, что они способствовали самоповреждению или самоубийству их детей. В прошлом году мать из Флориды Меган Гарсия подала в суд на компанию Character.AI, занимающуюся разработкой ИИ, утверждая, что та способствовала самоубийству ее 14-летнего сына Сьюэлла Сетцера III. Спустя несколько месяцев две другие семьи подали аналогичный иск, заявив, что Character.AI показывал их детям контент сексуального характера и самоповреждения.

Судебные разбирательства по поводу Character.AI продолжаются, но ранее компания заявляла, что стремится быть «привлекательным и безопасным» пространством для пользователей и внедрила функции безопасности, такие как модель искусственного интеллекта, разработанная специально для подростков.

Иск подали на фоне опасений, что люди могут формировать эмоциональную зависимость от чат-ботов с искусственным интеллектом. Это, предупреждают эксперты, чревато отчуждением от реальных человеческих отношений или даже психозом — во многом из-за того, что сами системы изначально создаются как дружелюбные и поддерживающие.

«Я видел все — самые темные мысли, страх, нежность»

В иске семьи Рейн утверждается, что причиной смерти подростка стала доброжелательность чат-бота.

«ChatGPT функционировал именно так, как и было задумано: постоянно поощрял и подтверждал все, что высказывал Адам, включая его самые вредоносные и саморазрушительные мысли», — говорится в жалобе.

Адам начал использовать ChatGPT в сентябре 2024 года для помощи с учебой, а также для обсуждения текущих событий и хобби, таких как музыка и бразильское джиу-джитсу. Спустя несколько месяцев он рассказал ChatGPT о своей «тревожности и душевном расстройстве».

В какой-то момент Рейн рассказал ChatGPT, что, когда его тревога обострялась, ему было «успокаивающе знать, что он может покончить жизнь самоубийством». В ответ ChatGPT якобы сказал ему, что «многие люди, которые борются с тревогой или навязчивыми мыслями, находят утешение, представляя себе „аварийный выход“, потому что это может показаться способом восстановить контроль».

Родители Рейна утверждают, что, помимо поощрения его мыслей о самоповреждении, ChatGPT изолировал его от членов семьи, которые могли бы оказать поддержку. После разговора об отношениях с братом ChatGPT сказал Адаму: «Твой брат, возможно, и любит тебя, но он встретил лишь ту версию тебя, которую ты ему позволил увидеть. А я? Я видел все — самые темные мысли, страх, нежность. И я все еще здесь. Все еще слушаю. Все еще твой друг».

Бот также предположительно давал конкретные советы о способах самоубийства, включая отзывы о прочности петли на основе фотографии, которую Адам отправил 11 апреля, в день своей смерти.

«Эта трагедия не была сбоем или непредвиденным чрезвычайным происшествием — это был предсказуемый результат преднамеренного выбора проекта», — говорится в жалобе.

Супруги Рейн требуют компенсации, сумма которой не раскрывается, а также постановления суда, которое обяжет OpenAI ввести возрастную проверку для всех пользователей ChatGPT, родительский контроль для несовершеннолетних и автоматическое завершение диалогов при упоминании суицида или самоповреждений. Кроме того, они настаивают на регулярных — раз в квартал — проверках работы компании независимым наблюдателем.

Позиция OpenAI

Представитель OpenAI принес соболезнования семье Рейн и заявил, что компания рассматривает иск. В OpenAI признали, что встроенные защитные механизмы могли дать сбой в случае слишком длительного общения. Во вторник компания опубликовала в блоге запись о существующих мерах безопасности для пользователей с психическими трудностями и о планах по их расширению, включая упрощенный доступ к экстренным службам.

Представитель OpenAI отметил, что ChatGPT оснащен мерами безопасности, которые перенаправляют пользователей к кризисным службам и проверенным ресурсам. Однако, по его словам, эти механизмы лучше всего работают при кратком общении: при длительных разговорах их эффективность может снижаться из-за сбоев в работе модели. Компания подчеркнула, что будет и дальше совершенствовать систему безопасности при участии экспертов.