В Госдуме разрабатывают закон о маркировке контента, созданного нейросетями
Здание Государственной думы РФ в Москве. Архивное фото
В Госдуме уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей, сообщил член комитета ГД по информполитике Антон Немкин. «»Сегодня в Госдуме уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей. В частности, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций», — сказал он РИА Новости.
Депутат отметил, что интернет уже переполнен контентом, который создают боты, алгоритмы и так далее и отличить реальное от нереального становится действительно очень сложно.
«А если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных», — добавил парламентарий.
По словам Немкина, человеку важно иметь представление о том, с чем он имеет дело, отличать реальное от нереального, как и в случае с рекламой, — пользователя очень легко обмануть и завлечь куда-то, а задача государства не позволить это сделать.
«На мой взгляд, маркировка должна осуществляться при помощи графических или водяных знаков. Главное, чтобы такая маркировка была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним и мог более тщательно его анализировать», — подчеркнул Немкин.
По мнению депутата, в силу того, что пока не ясно, какая экспертиза позволит распознавать степень участия машины и человека в одном и том же тексте, российские ИИ-сервисы должны автоматически маркировать любые сгенерированные тексты. В первую очередь, задуматься над подобными технологиями цифровой маркировки изображений нужно российским компаниям, развивающим компетенции в области генеративных нейросетей — прежде всего, «Сберу» и «Яндексу», предложил Немкин.
«Тем не менее, учитывая, что часть контента, созданного с использованием искусственного интеллекта, создается в деструктивных целях, нерационально ждать его маркировки от создателей. В связи с этим было бы логично наделить новыми полномочиями, например, Роскомнадзор, специалисты которого могли бы проводить экспертизу для выявления такого контента, если его создатели стараются все же избежать маркировки. После выявления такой контент должен будет принудительно маркироваться на площадках его распространения или же блокироваться в случае, если он распространяется в противоправных целях», — заключил он.