В Швеции обсуждается вопрос создания ответственного за ИИ надзорного органа
Один из ведущих шведских экспертов по вопросам цифровизации Анна Фелландер заявила, что власти и компании Швеции должны разработать этический подход к искусственному интеллекту (ИИ), который будет основываться на оценке рисков использования нейросетей.
Эксперт отметила, что люди и общество каждый день подвергаются непреднамеренным этическим и правовым рискам в результате нерегулируемых решений ИИ. Одна из причин заключается в том, что модели ИИ обучаются на огромном количестве существующих данных, иногда это может приводить к социальной изоляции и дискриминации.
По словам Анны Фелландер, системы генеративного ИИ имеют более высокую степень этического риска, чем другие технологии ИИ, так как они часто используются через API, что обеспечивает низкую степень прозрачности процесса принятия решений.
Эксперт напомнила, что в 2024 году в ЕС вступает в силу закон об искусственном интеллекте. Он требует от государств-членов ЕС назначить или учредить по крайней мере один надзорный орган, который будет нести ответственность за обеспечение соблюдения разработчиками систем ИИ необходимых процедур.