ИТ / Статьи
информбезопасность технологии
16.3.2023

Параллельные миры ChatGPT

В чем польза и вред генеративного искусственного интеллекта

Глобальные IT-корпорации одна за другой создают нейросети, генерирующие контент. Умные боты по мере их масштабирования будут распространять все больше фейков, и людям станет сложнее отличать правду от лжи, констатируют собеседники RSpectr. Однако эксперты предупреждают – стоит опасаться не широкой доступности ИИ-решений, а монополизации технологии.

ГОНКА ЗА ИНТЕЛЛЕКТОМ

Автоконцерн General Motors в марте сообщил, что работает над виртуальным голосовым помощником, который использует модели ИИ на базе ChatGPT. Инструмент внедрила Coca-Cola для усиления маркетинговой политики. Подобных бизнес-проектов – десятки.

Напомним, технологии GPT (Generative Pre-trained Transformer), способные генерировать тексты, используются в Google с 2017 года. Модель ChatGPT от OpenAI, увидевшая свет в ноябре 2022-го, создала хайп благодаря удобному интерфейсу, что привело к массовому использованию нейросети.

ИИ-системы, подобные разработке OpenAI, и выпуск open-source-версий могут использоваться для автоматизации многих задач в экономике, делая процессы более эффективными и снижая затраты, сообщила RSpectr руководитель инсорсинговых направлений ГК ITGLOBAL.COM Ольга Звагольская.

Широкая доступность ИИ-систем в стиле ChatGPT и выпуск версий с открытым исходным кодом станет катализатором в сфере ИИ, отметил в разговоре с RSpectr руководитель практики машинного обучения и искусственного интеллекта Axenix (экс-Accenture) Алексей Сергеев.

Дизайнер цифровых продуктов ГК Selecty Александр Ушаков в беседе с RSpectr добавил, что

распространение нейросетей должно привести к упрощению общественного доступа к технологиям ИИ и созданию новых приложений, которые улучшают жизнь людей во многих сферах – в медицине, логистике, образовании

Учебные заведения уже внедряют ChatGPT в образовательный процесс. Так, с 10 по 12 марта в IT-школе GigaSchool прошел хакатон, где 30 команд создавали ИИ-проекты.

По словам Александра Ушакова, новые возможности с появлением ChatGPT получит и индустрия развлечений.

БОТЫ КАК ГРИБЫ

ChatGPT дает средневзвешенный ответ на основе многочисленных известных данных, констатировал генеральный директор ООО «Делись» Иван Линдберг. По его словам, практика тестирования показывает, что ответы не отличаются качеством.

Иван Линдберг, ООО «Делись»:

– Такие системы стоит воспринимать как демонстрационные образцы, а не как профессиональные инструменты. В информационном плане они несут больше вреда, чем пользы.

Любая самая эффективная технология востребована не только «правильными пчелами». В связи с чем возможны и нежелательные сценарии использования, связанные с мошенничеством, генерацией фейков и дезинформацией, отметил Алексей Сергеев.

Финская компания по информбезопасности WithSecure в 2023 году опубликовала исследование, в котором утверждается, что

ChatGPT может успешно использоваться для генерации фейковых новостей

В декабре группа западных ученых использовала ChatGPT для написания научных статей. В некоторых докладах нейросеть подменяла факты об исследованиях. В январе ChatGPT ввел в заблуждение рекрутеров консалтинговой компании Schwa, которые приняли программу за реального соискателя и захотели с ним встретиться.

Вопрос размытия границ между правдой и ложью является одним из главных вызовов мира генеративных сетей, заявил в разговоре с RSpectr сооснователь Napoleon IT Руслан Ахтямов. По мнению эксперта, параллельный, полностью синтезированный информационный мир уже активно создается.

Люди будут привыкать, что при запросе информации сети отвечают правильно, и верить всем ответам, но многие – с увеличением количества чат-ботов – будут неверными. Передавая информацию, пользователи постепенно будут менять свои убеждения, считает директор по маркетингу компаний Homeapp и Interion Антон Калабухов. Эксперт отметил роль блогеров в создании некачественного контента.

Антон Калабухов, Homeapp и Interion:

– С ростом нейронных сетей они начнут еще меньше проверять факты, порог входа для новых авторов в онлайн будет снижаться, и люди будут писать о том, в чем вообще не разбираются.

Техноблогер и основатель интернет-магазина электроники imaxai.ru Максим Горшенин считает, что

ИИ-инструменты, в которые сегодня инвестируют крупные IT-компании, станут огромным подспорьем при ведении информационных войн

Максим Горшенин, imaxai.ru:

– Есть условная «Википедия», где для той или иной страны, в зависимости от того, с какого IP-адреса входит пользователь, одна и та же информация подается по-разному. Это так называемые когнитивные войны, когда применяется точечное воздействие. Порой даже не на граждан каких-либо государств, а на конкретную аудиторию. На пользователей может быть оказано такое влияние, что они будут думать, будто считают так сами, и в этом огромная опасность.

Путаница авторских текстов и сгенерированных нейросетью станет одной из главных проблем ближайшего будущего, дал прогноз в разговоре с RSpectr директор Центра исследования проблем информационной безопасности и цифровой трансформации СПбГУ Владислав Архипов.

Владислав Архипов, СПбГУ

– Нет никаких гарантий, что мой комментарий, который был направлен через мессенджер, сам не был создан нейросетью, а узнать это можно, только проконтролировав, как конкретно я его писал, но не из самого текста.

Председатель комиссии Гильдии российских адвокатов по защите и безопасности бизнеса Олег Матюнин сравнил программы-вирусы и генератор контента, основанный на ИИ. Эксперт считает, что возможностей уходить от ответственности у продукта новой технологической реальности ChatGPT пока побольше, чем у создателей вредоносного ПО.

Олег Матюнин, Гильдия российских адвокатов:

– Если хакерская атака – это виртуальный аналог вооруженного ограбления в восприятии пользователя, то тексты, созданные ChatGPT, больше напоминают грибы, растущие в лесу. Некоторые из них ядовиты, но выглядят как съедобные.

Причем угадать, будет ли действовать ядовитое вещество (ложная, деструктивная информация, включенная в сгенерированный контент) на человека и как именно, практически невозможно

В то время как последствия работы вирусов и других вредоносных программ известны еще до их попадания в устройство жертвы, уточнил Олег Матюнин.

Руслан Ахтямов рассказал, что ChatGPT уже можно использовать по API. По его словам, такая демократизация доступа обычных людей к генеративным сетям и сильному искусственному интеллекту (Artificial General Intelligence, AGI) приведет к подрыву тех бизнесов, в которых контент являлся исключительной ценностью.

Александр Ушаков считает, что

созданные с помощью нейросетей программы могут быть использованы для генерации поддельных сообщений и новых способов злоупотребления персональными данными

Версии с открытым кодом могут быть обучены на недостоверных данных, что приведет к ошибкам в алгоритмах ИИ, указывает эксперт.

Использование ChatGPT в предпринимательской деятельности может привести к риску потери конфиденциальной информации и нарушению правил конкуренции, высказал свою точку зрения RSpectr гендиректор DigitMind Technologies Максим Няголов. Неслучайно корпорации начали ограничивать применение ИИ в деловой переписке.

ОПРАВДАНИЕ ТЕХНОЛОГИИ И РЕГУЛИРОВАНИЕ

Антон Калабухов отметил, что нейронные сети, как любое новшество, способно приносить вред на этапе развития. Александр Ушаков объяснил, что ChatGPT может не уметь обрабатывать редкие или неожиданные запросы и сценарии. Бот не обладает интуицией, пониманием и контекстом, все это может привести к ошибочным выводам.

Гендиректор programmatic-платформы RTBSape Сергей Самонин пояснил RSpectr, что гарантированно неверный результат может быть в том случае, когда заданы неправдоподобные начальные данные. Поэтому важно обращать внимание, по каким правилам и в каком формате создается и обрабатывается исходная информация.

Александр Ушаков напомнил, что различные сатирические новостные издания давно успешно практикуют информационные вбросы для различных корпоративных задач. Вероятно, скоро появятся новые разновидности систем безопасности, которые целенаправленно будут отслеживать прозрачность при разработке ИИ-систем.

Олег Матюнин подчеркнул, что российское законодательство содержит немалое количество запретов и ограничений, в случае если тексты, сгенерированные ИИ, распространяются под видом достоверной информации без каких бы то ни было предупреждений об их искусственном происхождении. По его словам,

узким местом является создание фейка не владельцем программы, а ею самой без прямого участия разработчика

Олег Матюнин, Гильдия российских адвокатов:

– Создаются некоторые логические трудности для решения вопроса о виновности конкретного человека. Признать ответственность ПО невозможно, поскольку оно средство, инструмент. Но эти трудности судебная практика постепенно преодолеет.

Алексей Сергеев согласен, что со временем общество выработает правовые и этические стандарты, а также механизмы регуляции, которые позволят найти баланс между свободой и прогрессом в разработке продуктов в области ИИ и их безопасностью. Эксперт считает, что опасаться сегодня следует не широкой доступности и выхода ChatGPT в Open Source, а обратной ситуации – монополизации технологии.

Алексей Сергеев, Axenix:

– Риск не столько в плоскости возможных классических последствий ограничения конкуренции, сколько в сфере этики. Обучением моделей для ботов занимаются люди, являющиеся носителями культурных, религиозных, корпоративных стандартов и представлений о правильном и неправильном. В этом ключе монополия на технологию превращается в монополию на «правильные» ценности.

Такое вряд ли случится, ведь глобальные IT-корпорации одна за другой создают нейросети. Например, собственный аналог ИИ-бота ChatGPT разрабатывает Amazon.

Из-за гонки в сфере ИИ даже большие компании вроде Microsoft «выкатывают» довольно сырые решения, что нарушает этические нормы, считает Ольга Звагольская. Эксперт отметила, что, вероятно, именно из-за этого Google не спешит со своей версией чат-бота на основе ИИ. В феврале корпорация анонсировала запуск Bard – конкурента ChatGPT. Но пока он доступен только ограниченному количеству тестировщиков.

Ольга Звагольская, ITGLOBAL.COM:

– Чтобы снизить эти риски, важно предусмотреть соответствующие гарантии для предотвращения распространения дезинформации. Это может включать в себя реализацию таких мер, как человеческий надзор и процедуры фактчекинга.

Наталия Черкасова

Изображение: RSpectr, Adobe Stock

Еще по теме

Почему будущих специалистов по информбезопасности разбирают еще со школы

Новые схемы интернет-мошенников и как им противостоять

Почему буксует импортозамещение электронных компонентов

Почему рынок коммерческих дата-центров нуждается в регулировании

Что ждет начинающего тестировщика в 2024 году

Как найти перспективные зарубежные рынки для российских решений

Какие угрозы несет интернет тел человечеству

Успеют ли банки заменить импортный софт и оборудование до 2025 года

Зачем компании вкладывают деньги в ИТ-состязания?

Импортозамещение и внутренняя разработка ПО в страховании

Почему рынок информационных технологий РФ возвращается к классической дистрибуции

Что сделано и не сделано в цифровизации России за 2023 год

Как заботу о вычислениях переложить на вендоров и почему не все к этому готовы

Когда российский бизнес начнет замещать импортное ИТ-оборудование

Чего добились за два года активного импортозамещения ПО