Критика проекта закона об ИИ сквозь призму классической цивилистики

Шарон Алексей Александрович

Критика проекта закона об ИИ сквозь призму классической цивилистики

Тезисы выступления.

1. А почему нет Закона об электронной почте?

Коллеги, перед нами документ, который будет регулировать инструмент, а не правоотношения которые возникают из применения данного инструмента.
Это все равно, что в 90-е годы мы бы приняли «Закон об основах государственного регулирования электронной почты» или сегодня Закон о поисковой строке Яндекс.
Технологии регулируются через последствия их применения: защиту данных, деликты и интеллектуальную собственность. Данный проект это «надстройка над пустотой», это даже не рамочный закон, потому что в каждой второй статье отсылает к будущим постановлениям Правительства.

2. Ляпы и признаки машинной генерации текста (LLM)

При чтении текста возникает стойкое ощущение, что его писала нейросеть, а не юрист.
Статья 11 (часть 2), где в контексте гражданско-правовой ответственности за вред внезапно упоминаются «следственные действия».
Про ответственность у нас есть глава в ГК РФ, ей и надо оперировать.

В тексте имеются характерными для LLM пустозвонные предложения, такими как: «интеллектуальные способности человека, являющиеся… системообразующим фактором общества» (Статья 4). Когда я такое читаю, у меня в голове металлический голос робота, и совсем непросто вытаскивать смысл из такого потока слов.

Вопрос — является ли обучение модели на тексте «использованием произведения» в смысле авторского права? Это сейчас самый горячий спор в мире — в США, в ЕС, везде.
Российский законопроект в статье 13 пункте 5, дает простой ответ: не является нарушением, если экземпляр получен правомерно или произведение общедоступно.
То есть Минцифры здесь фактически легализовало обучение на любых открытых данных.
По мне это какое-то ничем не ограниченное пиратство, нельзя вот так просто взять и в каком-то отдельном законе вот такую вольницу установить.

3. Почему римские юристы отказались бы писать этот закон?

Римляне никогда не регулировали технологию. Они регулировали отношения, которые технология порождает.
Вопрос в зал: Был ли у римлян закон о катапульте? Нет, был закон о вреде имуществу соседа.
Был ли закон о кораблестроении? Нет был закон о договоре перевозки и ответственности перевозчика.
Правовая система всегда регулирует не инструмент, а последствия его применения
Минцифры сделало ровно наоборот: попыталось схватить за рукав саму технологию, дать ей определение, поставить на учёт — и при этом оставило без ответа все содержательные вопросы об ответственности, о правах, обязанностях.

Для римлян ИИ возможно был бы instrumentum vocale (говорящим инструментом) или servus doctus (образованным рабом).
Для римлян важны правовые последствия и ответы на вопросы: кто должник, кто кредитор, чья вещь, кто виноват?

Первый путь — раб со специальными навыками (servus doctus)
У римлян были рабы-врачи, рабы-архитекторы, рабы-управляющие. Раб мог совершать сделки — но не от своего имени, а порождая обязательства для господина. Институт actio de peculio позволял кредитору взыскивать с хозяина в пределах имущества, выделенного рабу. ИИ лёг бы в эту конструкцию почти идеально: действует самостоятельно, но ответственность — на владельце. Никакой субъектности, никаких мучений с «правами ИИ».

Второй путь — орудие (instrumentum)
Мельница, корабль, волы — всё это instrumentum fundi, орудия хозяйства. Результат работы орудия принадлежит владельцу. Вред от орудия — ответственность владельца по actio de pauperie (иск за вред, причинённый животным или вещью). Никакой разницы, сломался ли у тебя акведук или сгенерировала ли твоя система что-то вредоносное.

Третий путь — и вот здесь самое интересное

Римляне столкнулись бы с проблемой dolus (умысла) и culpa (небрежности). Их система ответственности держалась на вине конкретного человека. Когда вины нет ни у кого — система скрипит. Но и тут у них был инструмент: custodia — ответственность за сохранность независимо от вины, просто в силу того, что взял вещь под контроль.
Взял, значит отвечай за последствия. Это почти точно соответствует тому, к чему сейчас пришёл EU AI Act.

Кому принадлежит созданный ИИ продукт?
(1) Пользователь, который поставил задачу
(2) Владелец модели, чья система всё сделала
(3) модель, которая технически является автором текста.

Римлянин немедленно отверг бы третий вариант: модель это instrumentum, орудие, оно прав иметь не может. Дальше он бы рассуждал через specificatio — переработку чужого материала.
Классический казус: скульптор взял чужую бронзу и отлил статую. Чья статуя? Сабинианцы говорили — собственника металла. Прокульянцы говорили — скульптора, потому что новая вещь возникла из его труда и умения.
Юстиниан в итоге принял компромиссное решение: если материал можно вернуть в исходное состояние — собственнику, если нельзя — мастеру.
Римское право росло снизу вверх — от конкретного спора к общему принципу. Претор видел казус, для которого старая формула не подходит, давал новый иск, и постепенно из этих исков складывалась норма.

4. Немецкая школа: воля и ответственность

Если бы за текст взялись немцы (составители BGB), они бы назвали его Fremdkörper («инородным телом») в системе права.
Для немца ИИ — это либо «посланник» (Bote), либо «представитель» без правосубъектности. Они бы не писали про «этические принципы», а четко прописали, в какой момент расчет алгоритма превращается в юридически значимую волю человека.
Немецкий подход — это Gefährdungshaftung (строгая ответственность за риск). Если ты эксплуатируешь опасный объект (ИИ высокого риска), ты отвечаешь независимо от того, насколько «исчерпывающие меры» ты принял. Формулировка нашего проекта об «исчерпывающих мерах» (Статья 11) — это «резиновая норма», убивающая правовую определенность.

5. Мировой опыт: три модели Мир сейчас идет разными путями, но никто не регулирует «термины» ради терминов:

5.1. Европейский союз: Модель «Жесткого каркаса» (EU AI Act)

1. Неприемлемый риск (Запрещено совсем)
Это технологии, которые признаны античеловечными. Их в Европе нельзя даже разрабатывать.
Тот самый «социальный скоринг». Если программа начисляет вам баллы за то, что вы перешли дорогу на зеленый свет, и снимает за общение с «неблагонадежными» соседями (как сейчас пробуют в некоторых провинциях Китая) — в Европе это вне закона.
Распознавание лиц в реальном времени на улицах полицией (за редким исключением).

2. Высокий риск (Жесткий контроль)
Это системы, которые влияют на судьбу человека. Они разрешены, но к ним приставлен «конвой» из бюрократов.
ИИ, который, отсеивает резюме при приеме на работу;
ИИ в медицине (диагностика); ИИ в банках (выдача кредитов); ИИ в судах или миграционных службах.
Разработчик обязан вести журнал (документировать каждый шаг), гарантировать прозрачность (объяснить, почему ИИ принял такое решение) и, главное, — обеспечить контроль человека. Нельзя нажать кнопку «Пусть ИИ сам решит, кого уволить». Человек должен иметь право отменить решение робота.

3. Ограниченный риск (Просто скажи правду)
Это системы, которые не ломают жизнь, но могут обмануть.
Чат-боты или дипфейки.
Маркировка. Вы должны знать, что говорите с ботом, а не с живым оператором, или что видео сгенерировано нейросетью.

4. Низкий или минимальный риск (Делай что хочешь)
Это 90% всех программ.
Спам-фильтры в почте, видеоигры с умными ботами, рекомендация фильмов.
Практически отсутствует.

Для юриста «высокий риск» означает, что компания должна нанять штат юристов и комплаенс-менеджеров, чтобы заполнить сотни страниц отчетов о том, что их ИИ «этичен, прозрачен и безопасен». Это стоит огромных денег.
Это , кстати, одна из причин, почему в Европе медленно развиваются цифорвые технологии, они жертвуют прогрессом, ради европейских ценностей неприкосновенности свободы личности.
Европа создала систему превентивного надзора. Наш же законопроект Минцифры — это попытка взять «дух» этой системы (слова про безопасность и этику), но без четких критериев, которые есть у европейцев. В итоге у нас получается «туман», в котором чиновник может объявить «высоким риском» что угодно по своему усмотрению.

2. США: Модель «Мягкой силы и судебных прецедентов»

В Америке нет единого федерального закона об ИИ. Вместо этого они используют «лоскутное одеяло» из существующих норм и отраслевых стандартов.
Исполнительный указ Байдена (2023) задает общие рамки безопасности, но основная работа идет через регуляторов (FTC — антимонопольное право, SEC — финансы).
Принцип «Safe by Design». Если твой ИИ дискриминирует при выдаче кредитов, тебя накажут не за «плохой ИИ», а за нарушение закона о равном доступе к кредитам.
Позиция Верховного суда США или ведущих американских экспертов в области Tort Law (деликтного права):
«Сложность алгоритма не является основанием для освобождения от ответственности. Если владелец не может объяснить, как работает его система, он должен нести повышенное бремя ответственности, а не пользоваться льготами «непредсказуемости» технологии».
Вся энергия заинтересованных лиц сейчас уходит в прецеденты по авторскому праву (иски писателей и художников к OpenAI/Midjourney) и деликтную ответственность. Америка ждет, когда суды сформируют практику, а не законодатель навяжет догму.

3. Азия: Технологический прагматизм vs Государственный контроль

Здесь два полюса: Китай и Япония/Сингапур.
Китай: Пошел по пути вертикального регулирования. У них нет «закона об ИИ вообще», но есть «Правила рекомендательных алгоритмов», «Правила генеративного ИИ» и т.д. Главный акцент — ИИ не должен генерировать контент, подрывающий государственную безопасность.

Япония и Сингапур: Самые либеральные. Япония официально заявила, что обучение ИИ на защищенных авторским правом данных — это в основном fair use (добросовестное использование). Они хотят стать «тихой гаванью» для разработчиков, пока Запад спорит об этике.

Самые актуальные вопросы (Global Hot Topics):
Вопрос Текущий статус в мире
Ответственность Дискуссия: страховать риск (как ОСАГО) или вводить строгую ответственность владельца (Gefährdungshaftung).
Авторское право ИИ-контент не защищается авторским правом (США), но обучение требует прозрачности данных.
Deepfakes Срочное введение обязательной маркировки (Watermarking) и уголовная ответственность за подделку личности.
Прозрачность Требование «объяснимости» (Explainability): алгоритм должен уметь объяснить, почему он принял именно это решение.

Опыт «Цифровизации» 90-х и 00-х

Мы это уже проходили. Когда появился интернет, тоже были призывы создать «Закон об Интернете», который бы регулировал всё — от проводов до контента.
Что произошло: Вместо этого мы адаптировали существующие институты. Понятие «письменной формы сделки» расширилось до электронных документов. Защита чести и достоинства перешла из газет в соцсети.
ГК РФ выдержал появление интернета, смартфонов и блокчейна. Выдержит и ИИ, если мы не будем плодить «мертворожденные» акты.
Римский претор, увидев новый казус, спрашивал: кто должник, кто кредитор, чья вещь, кто виноват? Вот четыре вопроса, которые нужно было задать до написания этого закона. Их не задал, поэтому закон не получился.

ссылка на материалы

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Мой Мир
Опубликовать в Яндекс

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Post Navigation