№ 01 (137) 2025
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Нематериальные блага vs ИИ: помешают ли нормы о защите изображения и голоса развитию технологий

ПОДЕЛИТЬСЯ:

По оценкам экспертов, самой острой проблемой для ускоренного развития ИИ на сегодняшний день является доступность обучающих его данных. Большинство контента из открытых источников уже использовано для обучения ИИ. Хольгер Цшайге в своей недавней статье писал о том, что владельцы крупных социальных сетей берут контент пользователей, которые об этом чаще всего даже не догадываются [1]. Максим Али обращает внимание на то, ИИ будет использовать или уже использует изображение людей или другие атрибуты личности, которые могут охраняться как нематериальные блага. А это уже чревато серьезными правовыми проблемами, которые могут затронуть провайдеров ИИ-сервисов, их пользователей или даже простых граждан.

Говоря про искусственный1 интеллект (ИИ), мы чаще всего подразумеваем генеративные нейросети. Генерация фото, видео или аудио стала обыденной для многих компаний и их подрядчиков. За последние годы появилось множество как зарубежных (ChatGPT, Midjourney), так и российских (Kandinsky, Gerwin AI, «Шедеврум») сервисов. Для обучения ИИ используются открытые источники, в которых контент создан третьими лицами. У разработчиков не всегда есть возможность вручную отобрать каждую единицу контента для тренировки модели. Поэтому одной из ключевых юридических проблем при использовании ИИ стало поддержание чистоты датасетов — наборов данных, которые использует ИИ.

Обычно юристы смотрят на проблему чистоты датасетов через призму интеллектуальной собственности (ИС). Однако риски не ограничиваются лишь возможным нарушением исключительных прав. Немало контента создается на базе фотографий и записей реальных людей.

Значит, есть риск того, что ИИ будет использовать изображение гражданина или другие атрибуты личности, которые могут охраняться как нематериальные блага [2]. А нематериальные блага, как известно, могут защищаться независимо от исключительных прав на объекты ИС.

В данной статье показано, какие коллизии создает существующее регулирование нематериальных благ в контексте ИИ и какие сопутствующие сложности могут возникать при этом для провайдеров ИИ-сервисов, их пользователей и даже простых граждан.

Основные риски нарушения нематериальных благ при использовании генеративного ИИ

С одной стороны, за нарушение нематериальных благ обычно не следуют столь жесткие санкции, как за нарушение исключительных прав на объекты интеллектуальной собственности, особенно если сравнить суммы компенсации за нарушение исключительного права с размером компенсации за нанесение морального вреда [3]. Однако совсем забыть про риски, связанные с использованием атрибутов личности, не получится, и вот почему.

Во-первых, перечень способов защиты нематериальных благ сформулирован весьма широко.

Закон позволяет требовать пресечения действий, нарушающих право, а также предусматривает защиту «в случаях и в пределах, в каких использование способов защиты гражданских прав вытекает из существа нарушенного нематериального блага или личного неимущественного права и характера последствий этого нарушения» (п. 2 ст. 150 ГК РФ). В эту норму вполне укладывается требование о запрете использования контента провайдером или пользователем ИИ.

Особенно болезненным такое требование будет для провайдера ИИ-сервиса. Просто так изъять контент из датасета невозможно, потребуется повторное обучение модели ИИ. Для пользователя ИИ запрет на использование контента тоже создает проблемы. Например, если сгенерированный контент отпечатан в книгах, на билбордах, используется в масштабной рекламной кампании и т. д.

Во-вторых, закон предусматривает репутационные последствия для нарушителя. Потерпевший гражданин может потребовать признания факта нарушения, а также публикации решения суда. Не стоит забывать и о возможности опровержения по суду любой недостоверной информации о гражданине по ст. 152 ГК РФ, даже если она не носит порочащего характера.

В-третьих, при большом объеме публикуемого контента (что характерно для медиабизнеса), даже небольшие суммы компенсации морального вреда могут оказаться болезненными при множестве нарушений. Дополнительным бременем могут стать судебные расходы, особенно если компания планирует активное участие в спорах.

Разобравшись с последствиями, попробуем определить, что именно мы понимаем под нематериальными благами.

Состав нематериальных благ, охраняемых законом

Самая простая ситуация, когда закон прямо называет конкретные нематериальные блага и дает им специфическое регулирование, — как в случае с изображением гражданина (ст. 152.1 ГК РФ). Но так происходит не всегда.

Перечень нематериальных благ является открытым, непоименованные блага могут охраняться как «принадлежащие гражданину от рождения».

Широкий подход к определению нематериальных благ вызывает вопрос: распространяется ли режим нематериальных благ на конкретные атрибуты личности? Например, в Гражданском кодексе РФ ничего не говорится про защиту голоса, который многие люди, тем не менее, рассматривают как часть своей личности. А для ряда профессий (дикторов, журналистов, актеров и пр.) голос и вовсе — своего рода актив. В связи с этим закономерно возникают вопросы: является ли голос нематериальным благом и вправе ли гражданин запрещать его использование, как в случае с изображением?

Наиболее остро эти вопросы встали в деле актрисы дубляжа Алёны Андроновой против «Т-Банка» (экс-«Тинькофф»). Она узнала, что ее голос использовался для создания сервиса озвучания текстов Tinkoff VoiceKit. Данный сервис мог использоваться не только банком, но и третьими лицами. Например, сама актриса узнала о сервисе после того, как ее голос оказался в видеоролике «для взрослых».

В действиях банка Алёна Андронова усмотрела как репутационный урон, так и экономический ущерб, поскольку часть заказчиков теперь может не обращаться к ней для записи голоса, ограничившись сервисом банка. При этом, записывая голос для банка, она вовсе не подразумевала обучение модели ИИ для публичного сервиса.

По ряду причин суд первой инстанции отклонил иск [4], но ничего не сказал про возможность защиты голоса как нематериального блага. Суд констатировал, что исключительное право на исполнение актрисы перешло к ответчику, а необходимое согласие (на анонимное использование и на изменение исполнения) было получено от нее как от автора исполнения. При этом суд не проверял, есть ли у банка отдельное согласие на использование голоса актрисы. Сейчас подана апелляционная жалоба на решение суда.

По итогам ее рассмотрения выводы суда еще могут быть скорректированы.

Это дело ярко подсвечивает проблематику открытого перечня нематериальных благ. Компаниям иной раз следует подумать, на какие из используемых атрибутов личности необходимо получать отдельное согласие гражданина.

Что касается голоса, то законодатель планирует обеспечить его охрану через отдельную ст. 152.3

Гражданского кодекса РФ об охране голоса, которая пока мало чем отличается от норм о защите изображения [5]. Но даже в рамках текущей редакции Кодекса использование голоса без согласия гражданина вряд ли можно считать полностью безопасным.

Проблемы, которые связаны с нематериальными благами и ИИ

Если исходить из правил, которые распространяются на изображения граждан и закладываются в будущую ст. 152.3 ГК РФ о голосе, наиболее подходящим основанием для легального использования атрибута личности в большинстве случаев выступает согласие гражданина. Сбор согласий сам по себе — непростая процедура, особенно если модель тренируется на открытых источниках.

Но, допустим, разработчик ИИ решил этот вопрос.

Однако не меньшую проблему представляет собой юридический аспект, связанный с тем, что согласие на использование изображения можно отозвать, о чем говорится в п. 49 Постановления Пленума ВС РФ № 25 [6]. С отозвавшего согласие гражданина можно попытаться взыскать убытки, но шанс на удачу при этом весьма призрачный, особенно если вспомнить про их размер, ведь порча датасета влечет за собой крупные расходы на переобучение модели ИИ.

Несмотря на то, что Верховный Суд РФ прямо сказал лишь об отзыве согласия на использование изображения, нет особых сомнений в том, что такой же подход может применяться и в иных случаях [7], в том числе если Гражданский кодекс РФ будет дополнен статьей об охране голоса.

Законопроект об охране голоса мог бы стать неплохим поводом для устранения проблемы с отзывом согласия, например через механизм безотзывного согласия [8]. Разумеется, по аналогии с персональными данными такое согласие должно быть информированным, добровольным и т. д. [9]

К слову, Законопроект уже получил критическое заключение Правового управления Госдумы, которое критикует норму о возможности использования голоса, записанного за плату, так как цели записи могли быть разными. Такой подход отчасти справедлив, но вызывает встречные вопросы:

  1.  То, что голос записан за плату, еще не означает, что стороны не могут оговаривать или подразумевать конкретные цели его использования [10]. Возможно, поэтому проблема не в тексте нормы, а в ее толковании, которое не должно быть чрезмерно формальным.
  2. Если замечания к ст. 152.3 ГК РФ будут учтены, то возникнут разные подходы к использованию изображения и голоса (в последнем случае — с более жесткими требованиями). И, наоборот, если оставить ст. 152.3 ГК РФ в теперешнем виде, то в этом будет немного смысла, поскольку тогда было бы достаточно применения норм об охране изображения по аналогии (п. 1 ст. 6 ГК РФ).

Все это свидетельствует о том, что проблемы использования изображения, голоса и прочих нематериальных благ пока далеки от их окончательного решения. Но и ожидать, что ради развития ИИ, законодатель откажется от защиты нематериальных благ, не стоит. А значит, бизнесу, который создает или использует генеративный ИИ, придется выбирать собственную модель поведения, ориентируясь на правовые риски и новые тренды регулирования.

Возможность защиты бизнеса от отзыва согласия в текущих реалиях

До тех пор, пока в Законе не появится эффективное решение для отзыва согласия, опорой может служить судебная практика. Интересно, как Санкт-­ Петербургский городской суд попробовал сбалансировать интересы сторон в деле № 33-4169/2023 [11].

Предыстория спора: сотрудница компании согласилась с тем, чтобы работодатель использовал ее снимки во «внутренних целях», в частности в макете инструкции для рентгенографа.

На базе ее снимков также был создан 3D-аватар, который, похоже, стал частью графического интерфейса устройства. После увольнения экс-сотрудница обнаружила инструкцию со своим изображением на сайте бывшего работодателя.

Она отозвала согласие на любое использование изображения, в том числе в интерфейсе рентгенографа, потребовала компенсировать моральный вред и запретить использование ее 3D-аватара.

Апелляционный суд признал незаконной публикацию инструкции со снимками бывшей сотрудницы на сайте, но не стал запрещать использование 3D-аватара в программном обеспечении рентгенографа. По мнению суда, запрет на использование изображения нарушает баланс интересов сторон и противоречит принципу добросовестности осуществления гражданских прав. Стоит добавить, что подобный запрет мог помешать использованию или продаже уже произведенных рентгенографов. Не исключено, что изменение интерфейса программы также могло привести к необходимости перерегистрации рентгенографа как медизделия. Видимо, суд счел последствия отзыва согласия слишком разрушительными для того, чтобы применять их в полной мере.

Несмотря на то, что данное дело не касается конкретно ИИ, похожий подход можно распространить и на генеративные нейросети. Пример с медицинским оборудованием наглядно показывает, что последствия отзыва согласия могут быть несоразмерны причиненному этим вреду.

Разумеется, позиция, выстроенная исключительно на концепции добросовестности, имеет много изъянов. Но такая практика может служить бизнесу опорой для защиты от возможных злоупотреблений — по крайней мере, до тех пор, пока в законе не появится более элегантное решение этой проблемы.


[1] Цшайге Х. Бионический юрист // Legal Insight. — 2023. — № 8.
[2] Известны даже такие случаи, когда генеративный ИИ выдавал практически исходное изображение человека (о чем может не знать тот, кто генерирует контент). Так было в случае с моделью Stable Diffusion, которая выдавала практически исходную фотографию человека по определенном запросу. См.: Extracting Training Data
from Diffusion Models. — https://arxiv.org/pdf/2301.13188
[3] Во многом это обусловлено тем, что при нарушении исключительного права у правообладателя куда больший инструментарий, чтобы обосновать крупную сумму компенсации. В результате средняя сумма компенсации за нарушение исключительного права, по данным Судебного департамента, в арбитражных судах составляет порядка 88 тыс. руб­ лей, тогда как средняя компенсация морального вреда за нарушение нематериальных благ — около 50 тыс. руб­ лей (первое полугодие 2024 г.). При этом компенсация в сотни тысяч или миллионы руб­ лей чаще встречается именно при защите исключительных прав.
[4] Решение Савеловского районного суда г. Москвы от 12.08.2024 по делу № 2-3580/2024.
[5] Законопроект № 718834-8.
[6] Постановление Пленума ВС РФ от 23.06.2015 № 25 «О применении судами некоторых положений раздела I части первой Гражданского кодекса Российской Федерации».
[7] Суды допускают возможность отзыва согласия, например на использование результата интеллектуальной деятельности (см. Постановление Суда по интеллектуальным правам от 01.09.2023 по делу № А56-50349/2022).
[8] Нашему законодательству не чуждо безотзывное согласие: например, п. 6 ст. 1483 ГК РФ предполагает безотзывное согласие на регистрацию товарного знака.
[9] Соответствующие требования изложены в ч. 1 ст. 9 Федерального закона от 27.07.2006 № 152 «О персональных данных».
[10] Аналогично тому, как обстоятельства выдачи согласия могут свидетельствовать о подразумеваемых ограничениях на использование изображения (п. 47 Постановления Пленума ВС РФ № 25).
[11] См.: Апелляционное определение Санкт-петербургского городского суда от 16.02.2023 по делу № 33-4169/2023.

Возможно, вам будет
интересно