ИИ, чат-боты, фейки
IT / Новости
ИИ медиа персональные данные чат-боты
8.11.2023

Чат-боты испытывают «галлюцинации»

Чат-боты на базе ИИ периодически придумывают информацию. Доля ложного контента составляет от 3% до 27%.

Новый стартап Vectara по оценкам исследователей может искусственно создавать информацию до 27% случаев. На первый взгляд небольшая погрешность, может привести к серьезным последствиям. Эту особенность создатели программы назвали «галлюцинациями», передали The New York Times.

Если чат-бот будет использоваться в работе с судебными документами, медицинскими данными и конфиденциальной информацией, то это создаст определенные проблемы в этих сферах.

До конца не выявлено, как часто чат-боты могут давать ложную информацию, так как они обрабатывают запросы разными способами.

Изображение: Adobe Stock

Еще по теме

К чему приведет применение искусственного интеллекта в военной сфере

Как выстраивать и масштабировать инфраструктуру электронной коммерции в кризис

Что и как угрожает сейчас российской ИТ-инфраструктуре

Как веб-мастера, агентства и блогеры зарабатывают на рынке хостинга

Какие проблемы бизнеса решают MDM-системы

Почему программные роботы способствуют сохранению мотивации и продуктивности человека

Навыки, которые помогут сделать карьеру в ИТ-индустрии

Как искусственный интеллект помогает снизить затраты в логистике

Можно ли создавать собственные ИТ-продукты без программистов

Искусственный интеллект как спаситель книжного бизнеса

Как использовать плюсы и нивелировать минусы гибридных ИТ-инфраструктур

Как понять при онлайн-покупке, что игрушка безопасна для здоровья ребенка

Кибермошенники устраиваются в компании с помощью дипфейк-технологий

Как обеспечить безопасность персональных данных при переходе на цифровой документооборот

Почему генеративный ИИ пока далек от идеала, но еще себя покажет