В Беларуси опубликовали проект модельного закона «Об искусственном интеллекте», а Госстандарт начал формировать специальный комитет по стандартизации в этой сфере и пригласил заинтересованных к участию. Что предполагает проект, кто и как собирается регулировать искусственный интеллект, что об этом думают эксперты – разбирался «Белсат».
Государственный комитет по стандартизации Беларуси сообщил 15 июля о начале формирования национального технического комитета по стандартизации в сфере искусственного интеллекта.
«Сегодня технологии искусственного интеллекта начинают активно внедряться в производственной и социальной сферах. Это делает актуальными вопросы разработки стандартов в этой области. Поэтому сейчас формируется Национальная экспертная площадка. Соответствующие работы проводит Объединенный институт проблем информатики Национальной академии наук Беларуси (ОИПИ НАН Беларуси), который определен “офисом цифровизации” НАН Беларуси», – поясняет Госстандарт.
Технический комитет будет представлять объединение предприятий и организаций, заинтересованных в разработке стандартов в сфере искусственного интеллекта. Предложения о включении в его состав будет до 25 июля включительно принимать ОИПИ НАН Беларуси.
«Офис цифровизации» также опубликовал проект модельного закона «Об искусственном интеллекте». Текст можно посмотреть здесь в PDF.
Проект разработали в Институте проблем информатики еще в начале года. В апреле его одобрили на уровне Межпарламентской ассамблеи Содружества Независимых Государств, разослали в парламенты государств СНГ и рекомендовали к использованию в национальном законодательстве.
Это еще не означает одобрения проекта в качестве закона: Азербайджан, Армения, Беларусь, Казахстан, Кыргызстан, Россия, Таджикистан, Туркменистан и Узбекистан теперь могут воспользоваться этим проектом как «черновиком» для собственных законов, но могут и проигнорировать призыв СНГ.
Что в проекте закона
Похоже, что основной пункт проекта – определение «уполномоченного государственного органа», которому предлагают предоставить широкие полномочия по регулированию технологий, связанных с искусственным интеллектом: разработка законов и программ, «мониторинг безопасности», создание «комитета по этике», «организация независимой оценки качества», межведомственная и межгосударственная координация и так далее.
Проект предусматривает градацию технологий по уровню угроз и запрет технологий, в которых увидят «угрозу национальной безопасности» или «абсолютную угрозу». Проект допускает запрет «трансграничных технологий искусственного интеллекта» (как именно – не описано). Также предусмотрены «специальные экспериментальные правовые режимы» для технологий искусственного интеллекта.
К технологиям с применением искусственного интеллекта выставляют критерии сертификации, к разработчикам – множество требований: от «управления рисками» и «распределения ответственности» до систем сообщения пользователям о том, что они взаимодействуют с искусственным интеллектом. Для собственников, разработчиков и операторов вводят «солидарную» и «абсолютную» ответственность за возможный ущерб от искусственного интеллекта (как это реализовать, не пишут).
Среди прочего указано, что государство обеспечивает защиту личных данных физлиц, следит за социальной безопасностью технологий и их влиянием на рынок труда, выбирает приоритетными жизнь, здоровье и благополучие граждан в условиях функционирования технологий на искусственном интеллекте.
Ученый и аналитик технологий Сергей Бесараб говорит «Белсату», что этот документ – «юридический черновик, слепленный так, чтобы имитировать риторику европейского и китайского регулирования». Но в документе он не видит учета реальных особенностей индустрии вокруг искусственного интеллекта, понимания современных границ технологий или реальной механики работы моделей глубокого обучения.
«Очень сильная каша, – описывает проект Бесараб. – Они пытаются охватить всё – от сроков до технической сертификации, в итоге нет ничего. Все ограничено юридическим словоблудием и демонстрацией какого-то непонятного “внимания к рискам”».
Даже понятие «нейронная сеть» подают так, что «не соответствует даже школьному уровню современных знаний». Пытаются скопировать европейскую практику разделения на более и менее рискованные категории, но не учитывают, что даже сами разработчики этих технологий признают сложность оценки рисков и не имеют четкого мнения. Хотят информировать человека об общении с искусственным интеллектом, но не задумываются, как это делать и чем проверять.
Кто собрался регулировать искусственный интеллект
Сейчас «Национальную экспертную площадку» формирует Объединенный институт проблем информатики Национальной академии наук Беларуси, который назвали «офисом цифровизации Академии наук». Он же, похоже, и разработал проект «под себя».
Руководитель группы разработчиков проекта модельного закона и его активный промоутер – 57-летний генеральный директор Института проблем информатики Сергей Кругликов, ученый с военным прошлым. Он долгое время работал в Военной академии, открыто сотрудничает с компаниями военно-промышленного комплекса. Идею регулирования искусственного интеллекта он продвигал по меньшей мере с начала 2023 года, а искусственным интеллектом интересовался как минимум с 2019 года.
В группу экспертов входят еще три человека из Института проблем информатики: бывший ректор БГУ и выходец из Института проблем информатики Сергей Абламейко; заведующий отделом интеллектуальных информационных систем Института проблем информатики Алексей Белоцерковский; бывший силовик и выходец из Военной академии Сергей Касанин, много лет преподававший на военном факультете БГУИР. Также в группу входят профессор кафедры интеллектуальных информационных технологий БГУИР Владимир Голиков и три доцента, кандидата юридических наук: Татьяна Михалёва, Наталья Минько и Мария Абламейко.
Последняя – вероятно, дочь Сергея Абламейко: она Сергеевна по отцу, а Сергей Абламейко говорил, что у него есть дочь Маша. Сергей и Мария Абламейко еще в 2021 году написали статью о «философско-правовых аспектах» искусственного интеллекта.
Они позапрещают беларусам иностранные нейросети?
Согласно Freedom House, интернет в Беларуси несвободный – контент ограничен, права пользователей нарушаются. В рейтинге стран по свободе интернета наша страна на уровне Вьетнама – чуть лучше Кубы и России, чуть хуже Саудовской Аравии. Государственное регулирование искусственного интеллекта может привести к ограничениям и запретам новых технологий для обычных беларусов.
Бесараб считает, что проект модельного закона – «фиговый листок для цензуры». Это, по его словам, «абсолютно политизированный» документ, не связанный с внешним миром и мировой экосистемой вокруг искусственного интеллекта, направленный на юридическое обоснование цензуры и контроля. Но угрозы он не видит:
«Этот черновик просто дублирует то, что уже давно существует и хорошо работает годами. То есть просто будет еще один вариант бюрократического рычага для давления и свободной трактовки ответственности».
Это может быть разве что «дополнительным гвоздем в гроб беларусского AI-движения», допускает Бесараб: принятие подобного закона может уничтожить «полуживые осколки технологической инициативы».
Возможно, нейросети все же стоит регулировать?
Вероятный интерес к искусственному интеллекту со стороны людей, связанных с военно-промышленным комплексом Беларуси, может насторожить. Власти Беларуси и предприятия беларусского ВПК поддерживают российское нападение на Украину – и могут поддержать российские военные разработки в искусственном интеллекте. AI уже применяется в вооруженных конфликтах, в том числе в войне в Украине, в различных сферах, хотя выбирать цели и «нажимать на курок» нейросетям еще не дают. Россия противостоит регулированию искусственного интеллекта на войне по «западным нормам».
Возможно, как раз стоит создать регулирование для беларусского сектора искусственного интеллекта на случай, если таковой появится? Бесараб сомневается: Беларусь в этой области отброшена назад на десятилетия, а беларусские разработчики имеют доступ разве что к «мейнстримным» возможностям. Что касается «уполномоченного органа», он просит объяснить, как этот «бюрократический балласт» будет получать доступ к достижениям западных специалистов и технологической базе.
Регулирование, говорит Бесараб, было бы необходимо, если бы появился рынок, гражданская экспертиза и сообщество. Пока же он советует не регулировать, а развивать свой сектор, максимально открывать доступ к образованию и инвестициям, отстаивать права собственности и возможности свободно интегрировать доступные открытые модели куда угодно. Иначе из страны будет еще больше убегать молодежь, планирующая связать жизнь с IT и AI.
Не искусственный ли интеллект это написал?
Проект модельного закона довольно большой: 27 страниц, свыше 57 000 символов. При этом в нем мало конкретики и много общих фраз.
Некоторые фразы настораживают. Например, от исследователей и разработчиков в сфере искусственного интеллекта требуют среди прочего «учитывать контекст при возникновении уязвимостей», но не уточняют, какой контекст, как его учитывать и что с учтенным делать.
Также от собственников, операторов и пользователей технологий с искусственным интеллектом требуют предоставлять уполномоченным государственным органам данные «черного ящика» – а что за он, в проекте не объясняют напрямую. В контексте искусственного интеллекта «черным ящиком» называют систему, получающую на входе одно и выдающую другое, но неизвестно, как именно она превращает одно в другое. И это проблема: даже сами разработчики искусственного интеллекта не понимают, как точно работает искусственный интеллект. А в проекте предлагают обязать в том числе пользователей документировать и сообщать сведения о том, как работает искусственный интеллект.
По просьбе «Белсата» ChatGPT проанализировал проект модельного закона и пришел к выводу, что текст имеет признаки генерирования искусственным интеллектом. На то, что он написан полностью вручную без применения нейросетей, ChatGPT дает 5-10%. На то, что полностью нейросетью, дает 10-20%. А с вероятностью в 70-90% текст проекта был подготовлен по запросу, например, «создай проект закона об AI с учетом стандартов этики, безопасности и защиты данных», а затем дополнен человеком по части терминологии и в пунктах о трансграничных технологиях.
Добро пожаловать в реальность!