21 апреля 2026 года состоялся вебинар РУССОФТ, посвященный вопросам регулирования искусственного интеллекта, развитию подходов к контролю ИИ-контента и роли технологий доверия. Мероприятие объединило представителей ИТ-отрасли, юридического сообщества и разработчиков ИИ-решений для обсуждения практических механизмов регулирования и управления рисками.
Модератором встречи выступил Роман Клецких, вице-президент РУССОФТ по GR, который задал рамку обсуждения и обозначил ключевые вопросы, стоящие сегодня перед отраслью.
Также в вебинаре приняли участие эксперты отрасли:
- Михаил Шрайбман — генеральный директор OSMI IT
- Валентин Микляев — генеральный директор Noroots
- Виктор Наумов — партнер Firm.One, член Общественного совета при Роскомнадзоре
В ходе вебинара эксперты обсудили переход от формальной маркировки ИИ-контента к более сложным механизмам подтверждения его происхождения, а также риски, связанные с распространением ИИ-агентов и необходимостью их регулирования.
Михаил Шрайбман представил концепцию доказуемого происхождения цифрового контента и отметил важность построения цепочки доверия, включающей все этапы его создания:
«Ключевым становится не просто указание, что контент создан ИИ, а возможность отследить источник, модель, её версию и ответственных участников. Именно это формирует основу доверия».
Эксперт также подчеркнул роль блокчейн-технологий как инструмента фиксации неизменяемой информации о происхождении контента:
«Блокчейн позволяет создать единый реестр происхождения — как для контента, так и для ИИ-агентов. Это особенно актуально в мультиплатформенной среде, где важно обеспечить прозрачность и проверяемость».
Отвечая на вопросы модератора, Михаил Шрайбман отметил, что применение блокчейна не является обязательным для всех систем:
«В закрытых корпоративных контурах можно обойтись без блокчейна, но в открытых экосистемах он становится важным инструментом синхронизации и доверия».
Валентин Микляев сосредоточился на вопросах корпоративного регулирования ИИ-агентов и связанных с ними рисках. Он подчеркнул различие между чат-ботами и агентами, способными принимать решения:
«Если чат-боты дают рекомендации, то агенты уже совершают действия. Это принципиально меняет уровень ответственности и рисков».
Эксперт выделил ключевые угрозы, связанные с использованием ИИ в бизнесе:
«Основные риски формируются в так называемой триаде: доступ к данным, внешняя коммуникация и возможность исполнения команд. Именно сочетание этих факторов может привести к утечкам и финансовым потерям».
Виктор Наумов рассмотрел текущее состояние правового регулирования ИИ в России и обозначил ключевые направления его развития. Он отметил различия в подходах к определению ИИ в законодательстве:
«Сегодня обсуждаются разные модели регулирования — от более узких до максимально широких определений систем ИИ. В частности, речь идет о двух подходах: более прикладном, ориентированном на конкретные технологии, и комплексном, где ИИ рассматривается как система, влияющая на социальную сферу, госуправление и массовые сервисы. От выбранной модели напрямую зависит, какие именно технологии попадут под регулирование и какие требования к ним будут предъявляться».
Эксперт также обратил внимание на сложности, связанные с прозрачностью и ответственностью:
«Одна из ключевых проблем — отсутствие понятного распределения ответственности между разработчиками, операторами и пользователями ИИ. Без этого невозможно выстроить устойчивую правовую модель».
В завершение вебинара Роман Клецких поблагодарил спикеров и отметил важность комплексного подхода к развитию отрасли:
«Сегодня особенно важно находить баланс между развитием технологий и их регулированием, формируя доверие к ИИ со стороны государства, бизнеса и пользователей».
РУССОФТ продолжает системную работу по формированию экспертной повестки в области регулирования искусственного интеллекта, объединяя представителей отрасли и вырабатывая практические подходы к внедрению технологий.
