Разработчиков нейросетей могут обязать раскрывать исходные данные


Разработчиков отечественных моделей искусственного интеллекта (ИИ) могут обязать раскрывать сведения о наборах данных, на которых обучалась или тестировалась их нейросеть (наименование, дата создания, назначение, формат, объём, происхождение). Такая инициатива обсуждается отраслевыми ассоциациями, компаниями в области ИИ и профильным регулятором в рамках проработки законопроекта по ИИ, сообщают «Ведомости».

Текущее регулирование:

  • большинство норм в РФ носят стимулирующий характер;
  • действует закон об экспериментальных правовых режимах (ЭПР, 2020 г.) — 16 режимов запущено к концу 2024 г.;
  • с 2025 г. реализуется нацпроект «Экономика данных», включая федпроект «Искусственный интеллект»;
  • Банк России представил рекомендательный кодекс этики ИИ на финансовом рынке (5 принципов: человекоцентричность, справедливость, прозрачность, безопасность, управление рисками).

Реестры и проекты:

  • Минцифры разрабатывает реестр доверенного ИИ для критической инфраструктуры (июнь 2025 г.);
  • постановление правительства (декабрь 2025 г.) ввело требования к ИИ‑комплексам для реестра отечественного ПО;
  • иных реестров ИИ‑технологий в РФ пока нет.

Проблемы и сложности:

  • нет чётких определений «национального» и «доверенного» ИИ;
  • раскрытие данных может создать нагрузку на разработчиков, замедлить внедрение сервисов;
  • технически сложно раскрывать состав данных для крупных моделей (миллионы источников);
  • риск потери конкурентных преимуществ при раскрытии информации.

Экономические аспекты:

  • сейчас данные для обучения часто используются бесплатно и без разрешения владельцев;
  • предлагается ввести гибкие добровольные лицензионные соглашения (по аналогии с европейским AI Act);
  • не все данные имеют одинаковую стоимость: часть доступна свободно (новости, произведения народного достояния), другие — платные (аналитика, диссертации).

Потенциальные эффекты инициативы:

  • плюсы: повышение доверия к ИИ‑моделям, независимая оценка качества, единые стандарты отчётности;
  • риски: уход с рынка компаний, не готовых раскрывать данные; рост числа судебных споров об авторских правах в РФ (если инициатива будет принята).

Инициатива находится на стадии обсуждения. Её реализация потребует доработки законодательства, создания механизмов лицензирования данных и чёткого определения критериев «российского» ИИ. Цель регулирования — баланс между защитой прав владельцев данных, развитием технологий и безопасностью граждан.

Подробности читайте в материале "Ведомостей".


Рубрика: Новости

Дата: 26-02-2026

Теги: Искусственный интеллект (ИИ)