Чат-боты испытывают «галлюцинации»
Чат-боты на базе ИИ периодически придумывают информацию. Доля ложного контента составляет от 3% до 27%.
Новый стартап Vectara по оценкам исследователей может искусственно создавать информацию до 27% случаев. На первый взгляд небольшая погрешность, может привести к серьезным последствиям. Эту особенность создатели программы назвали «галлюцинациями», передали The New York Times.
Если чат-бот будет использоваться в работе с судебными документами, медицинскими данными и конфиденциальной информацией, то это создаст определенные проблемы в этих сферах.
До конца не выявлено, как часто чат-боты могут давать ложную информацию, так как они обрабатывают запросы разными способами.