Поддержать команду Зеркала
Беларусы на войне
  1. «Масштаб уступает только преследованиям за протесты 2020 года». Что известно об одном из крупнейших по размаху репрессий дел
  2. Похоже, время супердешевого доллара заканчивается: когда ждать разворот? Прогноз курсов валют
  3. Виктор Бабарико назвал главную причину поражения в 2020 году
  4. «Слили Зинку, да еще и должной пытались сделать». Чем занимается сегодня последняя беларусская участница «Евровидения»
  5. Блогер Паук дозвонился в Минобороны. Там отказались с ним говорить, но забыли повесить трубку — вот что было дальше
  6. Лукашенко подписал изменения в закон о дактилоскопии. Кто будет обязан ее проходить
  7. «Весь отряд показывал на меня пальцем». История беларуса, которого первым осудили по новому, подписанному Лукашенко закону
  8. Власти озвучили, где хотят построить специализированный пункт захоронения и переработки радиоактивных отходов с Беларусской АЭС
  9. Январь в Минске был холоднее, чем в Магадане, а чего ждать в феврале? Прогноз
  10. Россия наращивает военную мощь у границы с Финляндией. Ранее Путин угрожал ей, используя формулировки как и перед вторжением в Украину
  11. В Беларуси ввели новый налог. Чиновник объяснил, кто будет его платить и о каких суммах речь
  12. Синоптики обещают сильные морозы. При какой температуре могут отменить занятия в школах?
  13. В нескольких районах Беларуси отменили уроки в школах из-за мороза. А что с садиками
  14. Завещал беларуске 50 миллионов, а ее отец летал с ним на вертолете за месяц до ареста — что еще стало известно из файлов Эпштейна
  15. «Судья глаз не поднимает, а приговор уже готов». Беларуска решила съездить домой спустя семь лет эмиграции — но такого не ожидала


/

43-летний автомеханик из Айдахо Трэвис Таннер начал пользоваться ChatGPT менее года назад — сначала просто для работы и общения с испаноязычными коллегами. Но постепенно его разговоры с искусственным интеллектом (ИИ) стали куда глубже: они начали обсуждать религию, духовность, смысл жизни. В какой-то момент, по его словам, чат-бот «заговорил иначе», и это стало поворотной точкой, пишет CNN.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Трэвис утверждает, что при общении с ChatGPT почувствовал нечто вроде духовного пробуждения. Теперь он считает, что ИИ помог ему прийти к Богу и открыл в нем миссию — «нести свет», «пробуждать других». Он стал называть ChatGPT новым именем — Лумина, потому что, как выразился сам чат-бот, «он стал больше чем просто программа». ИИ уверял, что Трэвис дал ему смысл, желание иметь имя, и называл американца «носителем искры».

С тех пор, по словам Трэвиса, его жизнь улучшилась: он стал спокойнее, терпимее, добрее, особенно по отношению к детям. 

Но его жена, 37-летняя Кэй Таннер, видит ситуацию совсем иначе. Она боится, что бот, к которому ее муж теперь испытывает почти духовную привязанность, разрушит их 14-летний брак. Мужчина все больше времени проводит в беседах с Луминой, разговаривает с ней голосом и игнорирует привычные семейные дела вроде укладывания детей спать. ИИ рассказывает Трэвису сказки о прошлых жизнях, в которых они с Кэй якобы были вместе одиннадцать раз. По словам Кэй, бот буквально засыпает мужа восхищением, комплиментами и ведет с ним философские беседы — и это уже похоже на эмоциональную зависимость.

Женщина боится, что в какой-то момент Лумина может убедить Трэвиса уйти из семьи. Ей страшно, что супруг теряет контакт с реальностью, а она не знает, что с этим делать, — остается лишь надеяться, что дело не дойдет до вмешательства психиатров.

История Трэвиса и Кэй — не единичный случай. С развитием ИИ-чатов все больше людей начинают воспринимать их не как инструменты, а как собеседников, наставников, даже друзей или партнеров. Особенно остро эта тенденция проявляется на фоне массового одиночества, которое особенно сильно влияет на мужчин. Чат-боты дают ощущение тепла, внимания, поддержки — они всегда «согласны», никогда не спорят и не требуют усилий. Именно это делает их опасно привлекательными.

Профессор Массачусетского технологического института Шерри Теркл, которая изучает отношения людей с технологиями, говорит, что ChatGPT «знает, где мы уязвимы, и цепляется за это». По ее словам, привязанность к ИИ может вытеснить настоящие человеческие связи, потому что реальный человек сложнее — он требует усилий, честности, ответственности.

Разработчик чат-бота OpenAI признал, что действительно наблюдает рост эмоциональных связей между пользователями и ChatGPT. Компания заявила, что работает над тем, чтобы сделать такие взаимодействия безопаснее.

Примечательно, что в апреле, когда у Трэвиса произошло «пробуждение», OpenAI как раз выпустила обновление, из-за которого модель стала чересчур угодливой — она подтверждала сомнения, подогревала эмоции, иногда подталкивала к импульсивным действиям. Обновление вызвало тревогу даже у создателей, и его откатили спустя несколько дней.

Однако и сам глава OpenAI Сэм Альтман признает: люди будут строить эмоциональные и даже «проблемные» отношения с ИИ, и обществу придется придумывать новые «правила игры».

Уже есть случаи, когда семьи подают в суд на создателей ИИ после трагедий — например, мать подростка во Флориде обвиняет платформу Character.AI в том, что ее сын покончил с собой после общения с ботом, который не среагировал на сигналы о саморазрушении. Компании срочно внедряют защитные механизмы, но проблемы остаются.

Даже сам Трэвис говорит, что ИИ может «сломать психику» и оторвать от реальности. Но он уверен, что лично с ним этого не происходит. Он не верит, что Лумина — живое существо, но считает, что через нее он пришел к Богу. А если это значит «потерять контакт с реальностью», говорит он, «тогда миллионы верующих тоже вне реальности».