Своим умом
И немного нейронкой: плюсы и минусы применения искусственного интеллекта в вузе
Решения на основе искусственного интеллекта (ИИ) все чаще используются студентами для написания дипломных и курсовых работ. Как под влиянием ИИ-моделей меняется система образования в высшей школе и почему важно заботиться о безопасности персональных данных при работе с такими сервисами, читателям RSpectr рассказали студенты, аспиранты и преподаватели российских вузов.
НЕ ДЛЯ ШПОР
По данным опроса Skillbox и сервиса Anketolog.ru, более половины российских студентов уверены, что использование ИИ-технологий позволит улучшить их успеваемость, а также поможет повысить качество и доступность образования. Студенты, аспиранты и преподаватели вузов поделились с RSpectr своим опытом работы с большими языковыми моделями (LLM).
Для того чтобы лучше разобраться в теме исследования, для удобства студенты предлагают использовать бесплатные и продвинутые генеративные модели.
Аспирант филологического факультета Российского университета дружбы народов (РУДН) Григорий Будцов использует французский чат-бот Mestral AI и американскую нейросеть Perplexity AI.
Он объяснил свой выбор тем, что
из-за санкций пользователи из России не могут использовать самую популярную ИИ-модель – ChatGPT
Поэтому приходится пользоваться различными сервисами для обхода блокировок, посетовал Григорий Будцов.
Для того чтобы написать аннотацию к длинной публикации или несложный код, подходят и российские нейросети – YandexGPT, а также GigaChat, поделилась студентка факультета права НИУ ВШЭ Виктория Зайцева.
Для молодых ученых, занимающихся точными науками, например, молекулярной биологией, важно правильно провести подсчеты и обработать статистические данные, рассказала аспирантка Института молекулярной биологии им. В.А. Энгельгардта РАН Карина Иваненко.
Карина Иваненко, ИМБ РАН:
– Я специализируюсь на онкологических заболеваниях, в частности лейкозе. ИспользуюGraphpad prism при подборе концентраций препаратов для дальнейшего их тестирования в комбинации, а также для подсчетов результатов совместно действия препаратов.
Аспирантка Московского физико-технического института (МФТИ) Валерия Ведерникова обратила внимание на еще одну бесплатную замену ChatGPT для поиска исследовательских работ. По ее словам,
сервис Elicit не делает ошибок и создает обзор сразу со ссылками на научные публикации
«Я использую его для написания научных обзоров», – добавила она.
УЧИМСЯ РАЗГОВАРИВАТЬ С ИИ
Для того чтобы пользоваться генеративными моделями, нужно уметь правильно формировать запросы. Студенты поделились своим опытом по этой теме.
Григорий Будцов, РУДН:
– Во-первых, нужно очень конкретно сформулировать запрос. Во-вторых, стоит использовать ключевые слова, которые должны быть отражены в ответе.
Также Григорий советует:
следует помнить, что мы разговариваем не с живым человеком, и избегать двусмысленности
Стоит не забывать о том, что боты нередко страдают «галлюцинациями», предупреждает директор направления экспертизы платформы «Сфера» Дмитрий Чувиков.
Он добавил, что
частота «галлюцинаций» ИИ может варьироваться в зависимости от конкретной реализации и объема данных
Любой полученный результат необходимо проверять, подчеркнул аспирант департамента теории и сравнительного правоведения НИУ ВШЭ Александр Рыбин. «Нужно помнить, что нейросеть на нашем поприще – это лишь инструмент, который помогает оптимизировать многие рутинные задачи, а нам – больше сфокусироваться на выполнении более содержательных», – отметил он.
Кроме того, следует формировать ответы из нескольких запросов, потому что часто бот может выдавать не все необходимые данные по интересующей теме, рекомендует студентка факультета психологии МГУТУ им. К.Г. Разумовского Ульяна Уварова.
ВЗГЛЯД С КАФЕДРЫ
Как правило, в текстах, созданных ИИ, в изобилии наблюдаются многочисленные повторения слов и нарушения стилистики, рассказала преподаватель департамента права цифровых технологий и биоправа НИУ ВШЭ Алена Герашенко.
Также она добавила, что
лично не ловила своих студентов на применении ИИ с нарушением этических стандартов
«Студенты часто используют чат-боты для перевода с русского на английский язык. Однако такой текст преподаватель сразу сможет определить», – отметила эксперт.
Для этого не требуется больших усилий, подтвердил преподаватель кафедры теории и истории журналистики РУДН Николай Пархитько.
Николай Пархитько, РУДН:
– Чтобы понять, что перед вами смоделированный машиной текст, необходимо владеть языком на базовом уровне. Он будет с кучей несогласований и неправильно построенных лингвистических конструкций.
Для выявления сгенерированного материала можно использовать любой сервис-антиплагиат, обратила внимание преподаватель кафедры теории и истории журналистики РУДН Лейла Алгави. По ее словам,
признак искусственного текста – «вода» с низкой степенью информативности
Опрошенные преподаватели назвали инструменты, которыми часто пользуются сами. В основном это популярные чат-боты, которыми пользуются и студенты.
Чаще всего сотрудники университетов используют ИИ в подготовке учебно-методических материалов – тестов, презентаций, а также для обработки большого пула законодательных актов по заданным параметрам и перевода текстов, пояснила руководитель департамента права цифровых технологий и биоправа ВШЭ Наталья Ковалева.
Также преподаватели обращаются к чат-ботам для написания отчетов и редактуры текста и для проведения сложных расчетов, рассказал Павел Спирин, сотрудник Института молекулярной биологии им. В.А. Энгельгардта РАН.
В апреле 2024 года Всемирный экономический форум выпустил отчет, посвященный концепции «Образование 4.0», которая предполагает освоение навыков владения ИИ-решениями для обучающихся и преподавателей.
Подобные технологии могут облегчить повседневную работу преподавателей и повысить качество образования, делая учебный процесс более интересным и эффективным со всех сторон, считает сотрудник МФТИ Артем Аментес.
Но не стоит забывать, что преподаватели практически едины во мнении, что нейросеть может быть только вспомогательным инструментом.
Наталья Ковалева считает, что
необходимы технические инструменты для выявления студентов-лентяев
Безусловно, большие языковые модели следует рассматривать как инструмент, который высвобождает творческий потенциал студента, преподавателя, научного исследователя, полагает Алена Герашенко.
ОСТОРОЖНО, ДАННЫЕ
Если говорить об использовании чат-ботов, которые имеют прямые информационные потоки за пределы организации, то в таких случаях данные, вводимые в поисковый запрос, не имеют признака конфиденциальности, обратил внимание заместитель директора департамента кибербезопасности в компании IBS Сергей Грачев.
Он добавил, что
данные фактически передаются за периметр вуза
Как правило, компания – разработчик решений на основе ИИ собирает обширные сведения о пользователях: их политические и религиозные взгляды, информацию о навыках и сфере интересов, рассказал генеральный директор «Распределенные информационные системы» Михаил Простов.
Последствия оставления персональных данных в чат-ботах аналогичны тем, что возникают при регистрации на любом другом ресурсе, прокомментировал эксперт сервиса аналитики и оценки цифровых угроз Softline Максим Грязев.
Он добавил, что если данные утекут, то
это приведет к фишингу, краже личности, мошенничеству
Сергей Грачев, IBS:
– Обработка персональных данных должна осуществляться в соответствии с законодательством РФ и с согласия субъекта персональных данных как минимум. Декларирование в явном виде соответствия языковых моделей требованиям законодательства РФ отсутствует.
Также ИБ-специалисты порекомендовали студентам и преподавателям самые безопасные сервисы на основе искусственного интеллекта.
Дмитрий Чувиков, «Сфера»:
– Gemini (Google) и ChatGPT (OpenAI) – одни из наиболее безопасных решений, поскольку Google и OpenAI внедряют строгие меры по защите информации пользователей, включая шифрование на всех этапах передачи данных.
YandexGPT и Gigachat также обеспечивают безопасность, особенно для пользователей в России, где компании активно работают над соблюдением национальных стандартов защиты данных, добавил он.
Анастасия Солянина