Поддержать команду Зеркала
Беларусы на войне
  1. Беларусь — союзник России в войне, но один нарратив Кремля власти обходят стороной. Ученый проанализировал госСМИ и объяснил парадокс
  2. Киев предложил Минску сбивать над Беларусью залетевшие российские беспилотники. Что на это ответил Лукашенко
  3. «Не ждите комментариев. И не потому, что мы боимся». Рассказываем, как в Варшаве встречали освобожденных беларусских политзаключенных
  4. «Я — уходящий президент». Лукашенко заявил, что не хочет проблемы своего руководства страной перекладывать на преемника
  5. Чиновники активно прошлись по этой категории работников, после чего возник их дефицит. Проблема дошла до Лукашенко — тот требует решить
  6. Превзошел во лжи даже «военкоров»: Герасимов иностранным военным атташе озвучил цифры захваченных в Украине территорий — что с ними не так
  7. «Мы не бульдозеры, нам нужно время, мы люди». Колесникова и Бабарико поговорили с Тихановской
  8. В Беларуси при задержании убили оппозиционера — трое силовиков пострадали, заявил Лукашенко
  9. Этот беларус сбежал из СССР с третьей попытки, но силовики пришли к нему даже на Западе. Рассказываем о легендарном побеге и его цене
  10. Прокуратура проверила работу военруков. Узнали из непубличного документа, какие проблемы нашли в воспитании «патриотов»


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».