В конце июля в США стартовала первая за более чем 60 лет общая забастовка сценаристов и актеров, причиной для которой и главным камнем преткновения стали попытки отрегулировать использование киностудиями нейросетей, для того чтобы использовать в фильмах так называемые дипфейки реально существующих актеров. В частности, Гильдия киноактеров США заявляет, что борется со студиями за контроль над цифровыми копиями исполнителей, которые можно было бы использовать без каких-либо ограничений.
AMPTP – группа, ведущая переговоры от имени Walt Disney, Netflix и других крупных студий и стриминговых сервисов, заявляет, что выдвинула «новаторское предложение по искусственному интеллекту», которое защитит цифровую идентичность исполнителей. Студии отметили, что такая защита будет включать получение согласия актера на создание и использование цифровой копии и дальнейшие случаи использования этой копии в новых проектах.
Гильдия киноактеров не согласна с подходом. Один из основных источников противоречий – вопрос, как регулировать использование цифровых изображений актеров второго плана, особенно в массовых сценах. Текущая версия соглашения предполагает, что актер второго плана один раз подпишет согласие на использование своей цифровой копии, и потом студия сможет использовать его образ сколько угодно раз. Сложность ситуации еще и в том, что невозможно заранее предположить, кто из актеров массовки в будущем может получить широкую известность и начать договариваться с другими студиями уже об индивидуальных условиях использования своей цифровой копии.
Фейк на фейке
Впрочем, взаимоотношения актеров и крупных видеостримингов и их продакшенов – это скорее проблема узкоспециализированная. Вопрос в том, что технологии создания дипфейков стали настолько широкодоступны, что, изучив несложные инструкции, их может создать кто угодно, выбрав объектом изображения кого угодно.
В опубликованном в 2022 году отчете Европола предсказывается, что в 2026 году более 90% контента в интернете будет сгенерировано синтетически. То есть в той или иной степени будет являться продуктом деятельности нейросетей. При этом, к примеру, в Британии более 70% жителей в 2019 году вообще были не в курсе существования дипфейков и по определению не могли бы поставить подлинность искусственно сгенерированных видео под сомнения.
Авторы отчета перечисляют весьма широкий спектр возможностей использования дипфейков в неблаговидных целях – от шантажа и буллинга в Сети до возможных попыток спровоцировать волнения на националистической или религиозной почве. В штате Аризона (США) весной 2023 года был зафиксирован первый случай шантажа при помощи дипфейка. Женщина получила звонок якобы от своей дочери, которая сообщила, что ее похитили, и озвучила требование выкупа.
Сервис, специализирующийся на анализе дипфейков, Deeptrace Labs обнаружил в Сети около 15 000 онлайн-видео с глубокими подделками, из которых 96% были порнографическим контентом с участием женщин. Sensity AI, который также обнаруживает подделки, сообщил, что количество видео с дипфейками выросло в геометрической прогрессии с 2018 года. Законодателям приходится срочно искать возможности, чтобы предотвратить попытки использования возможности нейросетей во зло, но пока машина законотворчества в большинстве стран не успевает за стремительно развивающимися технологиями.
В США, к примеру, только восемь штатов приняли те или иные законы, ограничивающие использование дипфейков. Федеральный суд Лос-Анджелеса в настоящее время рассматривает иск от звезды одного из популярных ток-шоу, требующей запретить распространение приложения для телефона, позволяющего «приклеить» свое лицо к телу знаменитости. В итоге суд решил, что до тех пор, пока приложение остается бесплатным, помочь звезде он не в состоянии.
Отдельного регулирования, возможно, требует и творчество самих нейросетей, точнее, те данные, которые они берут за основу. Летом этого года создатель ChatGPT OpenAI получил иск от группы физических лиц. Согласно документам дела, слушающегося в федеральном суде Сан-Франциско, OpenAI обвиняют в том, что она нарушила законы о конфиденциальности, используя без ведома правообладателей массив данных объемом более 300 млрд слов, находившихся в открытом доступе, в том числе «книги, статьи, веб-сайты и сообщения, включая личную информацию, полученную без согласия».
Интересы истцов представляет юридическая фирма Clarkson. Она оценила потенциальный ущерб в $3 млрд, исходя из категории пострадавших лиц, которая «исчисляется миллионами человек». Корпорация Microsoft, которая планирует инвестировать в OpenAI $13 млрд, также была названа в качестве ответчика.
В иске OpenAI обвиняется в автоматизированном скачивании данных из интернета, так называемом скрейпинге (scraping – технология, использующая скрипты для захода на сайт под видом обычного пользователя и собирающая информацию по заранее установленным параметрам), нарушающем соглашения об условиях предоставления услуг, а также законы штата и федеральные законы о неприкосновенности частной жизни и собственности. Иск включает в себя и заявления о вторжении в частную жизнь, воровстве, неосновательном обогащении и нарушениях Закона о конфиденциальности электронных коммуникаций. Согласно иску, компания собирала данные о местоположении пользователей из Snapchat, музыкальные предпочтения на Spotify, финансовую информацию из Stripe и личные разговоры в Slack и Microsoft Teams.
В марте 2023 года комитеты по внутреннему рынку и по гражданским свободам Европарламента одобрили законопроект, регулирующий использование технологий на базе ИИ (так называемый AI Act). В документе предложено разделить технологии искусственного интеллекта по категориям по степени их потенциальной опасности. Кроме того, в проекте содержится запрет на использование технологии распознавания лиц в общественных местах и применение полицией ИИ для прогнозирования правонарушений, а также меры по регулированию систем генеративного ИИ.
AI Act запретит таким американским компаниям, как OpenAI, Amazon, Google и IBM, предоставлять API-доступ к генеративным моделям искусственного интеллекта. Любая модель, доступная в ЕС без предварительного прохождения обширного и дорогостоящего лицензирования, повлечет за собой крупные штрафы в размере более €20 млн, или 4% от общемировой выручки. Разработчики с открытым исходным кодом и хостинговые сервисы (такие как GitHub) будут нести ответственность за предоставление нелицензионных моделей. Пока чаще всего именно их используют злоумышленники для создания дипфейков и прочей сомнительной деятельности.
Дилемма вагонетки
Регулирование дипфейков, несмотря на свою сложность, остается скорее технической проблемой: в большинстве случаев можно однозначно судить, кто использует изобразительные способности нейросетей во благо, а кто нет. В случае с регулированием беспилотных автомобилей все намного хуже: чтобы принять необходимые законы, человеку, по сути, нужно найти решение сразу нескольких моральных дилемм, которые до недавнего времени были нерешаемы.
Главная из них – это так называемая дилемма вагонетки (этический парадокс, возникающий, когда мы сталкиваемся с неизбежностью принятия решения, которое может причинить вред одному человеку, но при этом спасти большее количество других людей). К примеру, если автомобиль, снабженный системой искусственного интеллекта, принял решение, результатом которого стало спасение нескольких человек, но при этом травма одного пешехода, может ли этот пешеход предъявить претензии и кому: пассажиру автомобиля, производителю автономного транспортного средства, властям страны или разработчику алгоритма, который принял такое решение?
Беда в том, что эта проблема хотя самая основополагающая, но далеко не единственная. По данным отчета исследовательской компании IDTechEx, из 187 известных на 2002 год аварий с участием беспилотного транспорта всего в двух случаях вина лежала на алгоритме или сенсорах автомобиля.
Все остальные случаи были связаны с ошибками водителя (сейчас в большинстве стран разрешено не полностью беспилотное вождение, а режим, в котором на водительском месте сидит живой человек, способный в любой момент забрать управление), водителей других машин или пешеходов. Получается, если автомобиль отдал управление живому водителю в критический момент, это было неверное решение? А может ли алгоритм в этом случае принудительно перехватить управление автомобилем, если видит, что человек однозначно ошибается?
Еще более сложный вопрос: кого должна выбрать самоуправляемая машина в качестве возможной жертвы аварии, если какой-то ущерб неизбежен: должна ли она учитывать пол, возраст, факт беременности, инвалидность и прочее? Суть проблемы в 2017 году сформулировал президент Toyota Canada Ларри Хатчинсон: «Подумайте о миллионах ситуаций, которые мы обрабатываем, и решениях, которые нам приходится принимать в условиях реального дорожного движения. Нам нужно запрограммировать искусственный интеллект в транспортном средстве, но у нас пока нет данных для создания машины, способной воспринимать практически бесконечные варианты промахов и случайных происшествий, которые происходят даже при простой поездке в магазин на углу, и реагировать на них».
Летом 2021 года Германия приняла пакет законов, регулирующих требования к беспилотным транспортным средствам на улицах городов. В законе, в частности, говорится, что, когда автономное транспортное средство должно «выбирать», какой закон нарушать, оно должно быть запрограммировано на выбор «варианта, связанного с наименьшим риском причинения вреда, ставя защиту человеческой жизни превыше всего остального». Когда имеются альтернативы угрозе человеческой жизни, «не следует проводить никаких дополнительных различий на основе личных характеристик, таких как возраст или инвалидность».
Впрочем, очевидно, что, для того чтобы законодательные нормы в этой области пришли в некое законченное состояние, требуются годы правоприменения. Пока принятые формулировки выглядят слишком расплывчатыми.
Суверенный ИИ
В России законодательство в сфере ИИ далеко от готовности. В августе 2020 года правительство утвердило Концепцию регулирования технологий ИИ и робототехники. Документ, разработанный Минэкономразвития, определяет основные подходы к трансформации системы нормативного регулирования в различных сферах экономики.
Ныне документ носит предельно абстрактный характер. «Нам предстоит пройти уникальный путь в трансформации российского права, в его адаптации к взаимодействию и отношениям, возникающим между человеком и машинами. Это необходимо сделать в короткие сроки, руководствуясь не только технократическими, но и гуманистическими принципами, в центре внимания которых – интересы человека и его базовые ценности», – считает Руслан Ибрагимов, руководитель рабочей группы «Нормативное регулирование цифровой среды» организации «Цифровая экономика» (проект развивается под эгидой ВШЭ, а сам Ибрагимов долгие годы руководил юридической практикой в МТС, где занимался в том числе и нюансами использования нейросетей).
В январе 2021 года должны были быть запущены экспериментальные правовые режимы – «цифровые песочницы», которые позволят выработать подходы к регулированию деятельности в данных сферах, в том числе временно отменять действующие предписания или запреты, если это понадобится для нормального функционирования экспериментального режима. В Москве подобный экспериментальный режим запущен с 1 июля 2021 года.
На осеннюю сессию Госдумы в этом году может быть вынесен Закон о регулировании дипфейков, рассказал газете «Известия» глава Комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн. Он добавил, что отличить их от достоверного изображения становится все труднее. По словам депутата, на базе комитета совместно с Роскомнадзором и экспертным сообществом разрабатывается законопроект, который, впрочем, к предметному обсуждению еще не готов. Одна из основных проблем, связанных с GPT, – потенциальная неспособность обнаружения фальсификации данных, что может привести к распространению дезинформации и манипуляции общественным мнением, согласна директор по стратегическим проектам Института исследований интернета Ирина Левова. Однако существуют методы и технологии, которые могут помочь решить эту проблему: алгоритмы проверки подлинности, фильтры и модерация контента, подчеркивает она.
Законодательное регулирование ИИ способно защитить общественность от потенциальных угроз, связанных с использованием этих технологий, считает Левова. Впрочем, оно может иметь и отрицательные последствия для развития ИИ в России, предупреждает она. «К примеру, затруднить доступ к новейшим технологиям в этой области и замедлить развитие ИИ в России», – поясняет эксперт. Кроме того, эти ограничения могут привести и к утечке кадров, когда исследователи и компании, занимающиеся ИИ, выберут другие страны, где свобода исследований и разработок не ограничивается законодательством, добавляет она.
Некоторые инициативы по развитию ИИ со стороны государства выглядят и вовсе оригинально. Минэкономразвития предложило сделать обязательным условием приобретение и использование решений с искусственным интеллектом при получении бизнесом субсидий выше определенной суммы. Об этом заявил в июле этого года министр экономического развития Максим Решетников в ходе совещания президента Владимира Путина с правительством. «Внедрение искусственного интеллекта должно стать одним из условий предоставления господдержки компаниям», – отметил министр. Минэкономразвития уже договорилось с Минфином об условиях проведения со следующего года пилотного проекта в нескольких секторах экономики: сельском хозяйстве, транспорте, промышленности и здравоохранении.