Поддержать команду Зеркала
Беларусы на войне
  1. Для водителей намерены ввести новшество с 1 января
  2. Синоптики рассказали, когда в страну придет «весьма существенное похолодание»
  3. Украинские войска продвигаются под Покровском и освобождают территорию под Добропольем — ISW
  4. Стало известно, когда доллар станет дороже 3 рублей: прогноз по валютам
  5. Помните, Лукашенко зазывал работников из Пакистана? Посмотрели, из каких стран активнее приезжают кадры (нашлось неочевидное)
  6. На выезд в Польшу вновь начали собираться огромные очереди из легковушек и автобусов. В ГТК назвали виновника
  7. Крупнейшую сеть фастфуда в Беларуси открывал выходец из КГБ. Рассказываем
  8. Для тех, кто получает подарки не от родственников, хотят ввести налоговое новшество. Тот случай, когда оно вряд ли понравится
  9. Чиновники хотят ввести изменения при снятии наличных в банкоматах и переводах денег
  10. В стране ЕС откроется посольство Беларуси
  11. Его открывали с помпой и снесли тайком за одну ночь. Рассказываем, что за огромный памятник стоял в центре Минска
  12. Беларусь стала главным рынком сбыта для одного из российских продуктов
  13. В Литве зафиксировали рекорд на границе с Беларусью за последние шесть месяцев — о чем речь
  14. В Беларуси операторов связи будут штрафовать за некачественный интернет


Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию. Новый метод обучения разработан для использования в ситуациях, когда у людей есть экономический стимул лгать, например, при подаче заявки на ипотеку или попытке снизить страховые взносы, пишет «Хайтек».

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

ИИ уже используют в самых разных ситуациях для поддержки принятия решений. Такие программы, как правило, используют для прогнозирования математические алгоритмы, основанные исключительно на статистике. Проблема в том, что этот подход создает стимулы для людей лгать, например, чтобы получить ипотеку.

Исследователи разработали набор параметров, которые можно использовать для определения того, как ИИ учится делать прогнозы. Параметры помогают программе распознавать и учитывать экономические стимулы человека. Другими словами, ИИ учится распознавать обстоятельства, в которых человеку выгодно лгать.

В ходе моделирования, подтверждающего концепцию, модифицированный ИИ лучше обнаруживал неточную информацию от пользователей. Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики ИИ могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между „маленькой“ и „большой ложью“. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы», — рассказал соавтор исследования Мехмет Канер.