Сергей Пименов Про

Этика будущего: границы использования ИИ в личной жизни и бизнесе

Принципы современной этики ИИ и их противоречия

Современные подходы к этике искусственного интеллекта (ИИ) концентрируются вокруг ряда ключевых принципов: справедливость, прозрачность, подотчетность (accountability), безопасность (robustness) и приватность. Эти принципы закреплены в многочисленных рекомендациях и кодексах – от Кодекса этики ИИ Microsoft до глобальной рекомендации ЮНЕСКО. Например, принятый в 2021 году ЮНЕСКО «Рекомендация по этике ИИ» требует, чтобы ИИ-системы уважали права человека и достоинство, обеспечивали справедливость и инклюзивность и оставались под человеческим контролем. Крупнейшие ИТ-компании также сформулировали свои принципы: так, Microsoft выделяет справедливость, надежность и безопасность, конфиденциальность и защищенность, инклюзивность, прозрачность и подотчетность как шесть базовых ценностей при разработке ИИ.
Однако на практике эти идеалы часто конфликтуют друг с другом. В реальных проектах возникает необходимость баланса и компромиссов между разными аспектами этики ИИ:
  • Прозрачность vs. Приватность и безопасность. Полная открытость алгоритмов может вступать в противоречие с защитой данных и безопасностью системы. ЮНЕСКО прямо отмечает, что уровень прозрачности и объяснимости следует соотносить с контекстом, так как излишняя открытость может нарушить принцип неприкосновенности частной жизни, а также ослабить безопасность и устойчивость модели. Исследования показывают, что раскрытие деталей ИИ может облегчить злоумышленникам задачу обхода защиты или повторной идентификации личных данных – классический конфликт «прозрачность против robustness/конфиденциальности». Поэтому на практике компании часто вынуждены искать «золотую середину»: предоставлять достаточные объяснения работы ИИ для доверия, но не раскрывать уязвимости или чужие данные.
  • Справедливость vs. Приватность. Стремление к справедливости (недискриминации) иногда требует учета чувствительных данных (например, информации о расе или поле) для выявления и исправления biais алгоритма. Но сбор и использование таких данных может нарушать конфиденциальность пользователей. Кроме того, методы усиления приватности – например, дифференциальная приватность – могут снизить точность и усилить перекосы алгоритма. Согласно обзору Монреальского института этики ИИ, внедрение строгой приватности часто снижает точность и справедливость моделей: защитное шумовое искажение данных может ухудшить качество для мало представленных групп. Иначе говоря, попытка защитить данные пользователя способна непреднамеренно усилить несправедливость решений ИИ, если не принять дополнительных мер.
  • Точность/эффективность vs. Несправедливость. Другой конфликт – между максимизацией эффективности алгоритмов и этическими ограничениями. Например, алгоритмы могут научиться увеличивать свои KPI ценой дискриминации: кейсы кредитного скоринга или найма демонстрировали, что модель повышала точность прогноза, игнорируя принципы равенства, если её не сдерживать политиками fairness. В здравоохранении стремление к точности для определённых групп пациентов может означать ограничение применения модели для других групп, иначе для них резко растёт риск ошибок. Таким образом, менеджерам приходится решать: пожертвовать ли долей точности ради справедливости? Многие эксперты признают, что увеличение справедливости зачастую снижает суммарную точность – известный компромисс между эффективностью и этикой.
  • Автономность ИИ vs. Ответственность человека. Принцип подотчетности требует, чтобы всегда был понятен ответственный за решения ИИ – в идеале, человек-оператор или разработчик. Но по мере роста автономности систем эту связь труднее проследить. Международные нормы настаивают: даже если ИИ действует автономно, окончательная ответственность должна лежать на человеке. Это означает, что границы самоуправления ИИ часто специально ограничиваются: например, в критических сферах (авиация, медицина, правосудие) всегда предусмотрен человек, который может вмешаться в решение алгоритма. Но такое ограничение иногда замедляет внедрение ИИ – еще одна дилемма «безопасность и ответственность vs. скорость инноваций».
Итог: принципы этики ИИ не существуют изолированно – между ними возникают трудные компромиссы. Как отмечают исследователи, реализация ответственного ИИ – это постоянное управление трейд-оффами: повышение прозрачности может ослабить безопасность, защита приватности может осложнить борьбу с biais, максимизация эффективности может нанести ущерб справедливости. Задача этичного продюсера или менеджера – найти баланс, исходя из контекста использования системы. Именно поэтому современная этика ИИ мыслится не как жёсткий свод запретов, а как рамка для управления рисками, позволяющая поддерживать доверие пользователей и устойчивость технологий в долгосрочной перспективе.

Этика ИИ в разных контекстах: личная жизнь, малый бизнес, корпорации

Этические проблемы применения ИИ сильно зависят от контекста. То, что приемлемо для личного использования, может быть неприемлемо для крупной корпорации, и наоборот. Рассмотрим три уровня: личная жизнь, малый бизнес и крупные компании, – и как в каждом проявляются подходы к данным, слежке, персонализации и интерфейсам.
  • Личная жизнь (пользователи). В повседневной жизни ИИ стал незримым помощником – от умных ассистентов и рекомендаций в соцсетях до фитнес-трекеров. Индивид получает выгоды удобства и персонализации, однако платит приватностью и вниманием. Этически значимо, что люди часто не до конца осознают, сколько данных о них собирается и как они используются. Например, алгоритмы рекомендаций могут сформировать вокруг человека «пузырь» предпочтений – показывать только контент, подтверждающий его взгляды, или товары, которые наверняка понравятся, тем самым манипулируя выбором. В личной жизни граница между «умной помощью» и скрытой манипуляцией очень тонка: многие пользователи ценят персонализированный сервис, но перестают доверять бренду, заподозрив скрытый контроль над своим поведением. Исследование Salesforce выявило этот парадокс: 76% клиентов хотят персонального подхода, но 63% утрачивают доверие, если чувствуют невидимое влияние на свои решения. В результате среди пользователей растёт запрос на прозрачность (понимать, как ИИ формирует рекомендации) и контроль (возможность отключить навязчивые функции). На персональном уровне этика ИИ часто сводится к вопросу информированного согласия и цифровой грамотности: знает ли человек, когда он взаимодействует с ИИ и какие данные отдает? Например, умные камеры в доме могут повысить безопасность, но безответственное их использование способно нарушить приватность окружающих (соседей, гостей). Таким образом, отдельному человеку важно развивать цифровое критическое мышление, чтобы не стать жертвой «цифрового гипноза» – состояния, когда под постоянным воздействием алгоритмов человек теряет самостоятельность решений. Этические подходы здесь лежат в плоскости самозащиты: понимать риски, использовать настройки приватности, требовать от сервисов объяснений и уважения своих данных.
  • Малый бизнес (стартапы и SMB). Небольшие компании все активнее применяют ИИ-инструменты – от анализа данных о клиентах до чат-ботов поддержки. Для них ИИ часто – способ сократить издержки и конкурировать с крупными игроками. Однако ограниченные ресурсы малого бизнеса нередко приводят к упрощенному отношению к этике: сперва функциональность – потом ответственность. Например, небольшой интернет-магазин может начать собирать массу пользовательских данных для таргетинга рекламы, копируя практики больших платформ, но при этом не внедрить четкой политики приватности. Отсутствие специальных отделов по кибербезопасности или юристов у SMB повышает риск неэтичного обращения с данными – иногда по неведению. В то же время малый бизнес меньше привлекает внимание регуляторов, и соблазн использовать «серые» схемы выше. Пример – многие компании до недавнего времени устанавливали трекинговые cookies без явного согласия пользователя. В России лишь в 2024 году начались активные штрафы Роскомнадзора за скрытый сбор данных, что заставляет бизнес искать баланс между эффективностью и законностью. Малые фирмы сталкиваются и с этическими вопросами мониторинга сотрудников: доступные ИИ-системы для слежения (например, трекинг за рабочими компьютерами) могут повысить продуктивность, но ставят под угрозу доверие и приватность в коллективе. С другой стороны, у малого бизнеса есть преимущество – гибкость и близость к клиентам. Креативные предприниматели часто сами боятся отпугнуть лояльную аудиторию неэтичными действиями, поэтому могут внедрять упрощенные этические нормы: открыто предупреждать о применении бота на сайте, спрашивать разрешение на подписку, не перегибать с персонализацией. Этика ИИ для них – часть репутационного менеджмента: у стартапа нет запаса прочности, один скандал с неправомерным использованием данных может погубить компанию. Таким образом, в малом бизнесе подход «риски и ответственность» выражается в том, чтобы предотвращать очевидные этические промахи (следовать законам о данных, не эксплуатировать уязвимые группы, быть честными с клиентами), пусть и без формализованных кодексов.
  • Корпорации и крупные проекты. В масштабном бизнесе внедрение ИИ происходит системно, а этика становится частью корпоративной политики. Крупные корпорации осознают: любое решение ИИ на их уровне может затронуть миллионы людей, а цена репутационной ошибки – колоссальна. Поэтому последние годы лидеры индустрии (Google, Microsoft, IBM и др.) инвестируют в программы Responsible ИИ – вводят внутренние этические комитеты, оценивают риски перед запуском продуктов, публикуют принципы использования ИИ. Например, Google после инцидента с ошибочной идентификацией в Photos (алгоритм метки фотографий оскорбительно перепутал людей с гориллами) пересмотрел подход и уже в 2018 году под давлением общества и сотрудников сформулировал публичные принципы ИИ, запретив применение своих технологий для слежки и оружия. Теперь у Google действует команда по этике ИИ, а в продуктах появляются функции, повышающие прозрачность (вроде опции «About this image», сообщающей, как было создано изображение). Корпоративный этический подход подразумевает, что на этапе дизайна продукта оцениваются потенциальные вреды: дискриминация, утечка данных, манипуляция пользователем. В больших компаниях формируются целые «этические каркасы»: например, Model Cards – стандартизованные документы с информацией о датасете, целях и ограничениях модели, чтобы внутренние и внешние стейкхолдеры могли проверять соответствие принципам. Также крупные игроки задают культурный тон для отрасли: если корпорация добровольно ограничивает использование ИИ (как IBM, отказавшаяся от продажи систем распознавания лиц, опасаясь нарушения прав людей), она тем самым формирует новую норму для всех. Безусловно, в бизнес-гигантах есть и обратная сторона – иногда гонка за прибылью вступает в конфликт с этикой. Известны случаи, когда внутри компании всплывали разногласия: например, увольнение этического ИИ-исследователя Тимнит Гебру из Google в 2020-м вызвало критику, что бизнес-интересы взяли верх над ценностями. Тем не менее, давление общества, инвесторов и регуляторов сегодня таково, что корпорации не могут игнорировать вопросы этики. Для продюсеров и управленцев на высоком уровне это означает необходимость системно управлять рисками: проводить аудиты алгоритмов, вовлекать юристов, экспертов по правам человека, обучать персонал этичным практикам. В противоположность личному уровню, где акцент на правах человека, и малому бизнесу, где главное – не нарушить закон, корпорации стремятся проактивно внедрять этику как часть бренда. Ведь доверие пользователей и партнеров напрямую влияет на стоимость бренда и устойчивость бизнеса.
В итоге, этические подходы различаются: для индивида – это вопрос информированности и личных границ, для стартапа – соблюдение минимальных норм и здравый смысл, для корпорации – развитая политика и саморегуляция на опережение. Но всех объединяет осознание, что без доверия и ответственности ИИ-решения не достигнут долгосрочного успеха, особенно в эпоху, когда «нейросети умеют предсказывать наши желания точнее, чем родственники».

«Помощь» vs «подмена»: где ИИ должен остановиться?

Одно из самых сложных моральных измерений – определение границы, где ИИ помогает человеку, усиливает его способности, а где начинает подменять и вытеснять человека в творчестве, управлении и коммуникации. Эта граница не фиксирована: она смещается с развитием технологий и во многом определяется культурным контекстом и ожиданиями.
  • Творчество. ИИ уже научился писать музыку, генерировать картины и тексты, имитируя стиль великих мастеров. Проекты вроде «Следующий Рембрандт» (2016) показали, что алгоритм способен создать картину «а-ля Рембрандт» через 350 лет после смерти художника. Возникает вопрос: если нейросеть может сгенерировать иллюстрацию или сценарий, нужна ли роль человеческого автора? Многие креативные индустрии сейчас ищут симбиоз: ИИ берёт на себя рутинные или технические аспекты (например, автозаполнение кода, генерация черновиков дизайна), освобождая человеку время для идей и смыслов. Художественный труд содержит нюансы эмпатии, культурного контекста, интуиции – пока ИИ не способен полноценно заменить человеческий гений, хотя и подбирается близко. Этически приемлемой считается модель «ИИ как инструмент», а не «ИИ как автономный художник». Например, при создании картины ИИ может предложить вариации композиции, но финальный выбор и идея – за художником. Многие конкурсы запрещают работы, созданные полностью ИИ без указания авторства, поскольку это воспринимается как обман. Грань помощи и подмены в творчестве часто проводят по признаку замысла и ответственности: если машина лишь следовала заданию человека, дополняя его мастерство, то это помощник; если же инициатива и выполнение отданы ИИ, роль человека девальвируется. Авторы и продюсеры всё чаще оговаривают, что используют ИИ в качестве «советника» – например, для мозгового штурма сюжетов – но финальный сценарий пишут сами. Это помогает сохранить аутентичность и уникальность, которые ценятся аудиторией. Впрочем, с улучшением генеративных моделей эта черта будет испытываться: уже сейчас есть полностью «виртуальные» поп-исполнители и картины, продаваемые как созданные ИИ. Обществу предстоит решить, приемлемо ли считать такие произведения полноценным искусством или все же ценность имеет только человеческое творчество. Пока что консенсус склоняется к тому, что ИИ – инструмент в руках творческого человека, и этично подчеркнуть участие человека (через кураторство, пост-обработку, идею).
  • Управление и принятие решений. В сфере менеджмента ИИ обещает поддержку в обработке больших данных и поиске оптимальных решений. Уже сегодня алгоритмы помогают руководителям прогнозировать тренды, оптимизировать цепочки поставок, отбирать резюме при найме и пр. Однако ключевой этический вопрос: могут ли «умные машины перехитрить нас, или человеческое суждение незаменимо при решении самых важных вопросов жизни?» – как сформулировал философ Майкл Сэндел. Практика показывает, что человеческое решение на вершине остается необходимым, особенно когда ставки высоки. ИИ лишён ценностного суждения и контекста, которыми обладает человек-управленец. Например, алгоритм может подсказать, кого из сотрудников повысить на основе одних метрик производительности, но не учтёт моральный дух команды, индивидуальные обстоятельства – то, что видит опытный руководитель. В финансах система может рекомендовать инвестиции, не зная негласных факторов рынка или этических соображений (например, не вкладываться в вредящие экологии проекты). В госуправлении – принимать решения только на основании ИИ-анализов опасно для демократии и прав граждан. Поэтому в управленческой среде принципом становится "Human in the loop" – человек должен оставаться в контуре принятия решений. ИИ выступает консультантом: предлагает варианты, выявляет корреляции, но не получает полного автономного контроля. Более того, как отмечает профессор Джозеф Фуллер из Гарварда, пока не ожидается исчезновения целых профессий – скорее, изменяются роли: «ИИ не заменяет работников, а берет на себя технические задачи, позволяя им сосредоточиться на том, что требует человеческого участия». Это приводит к появлению гибридных должностей, где навыки работы с ИИ столь же важны, как и управленческий талант. Этически важной границей становится наличие человеческой ответственности за результат – алгоритм может советовать кого уволить, но решение и ответственность за него несёт менеджер. Международные руководящие принципы (включая ЮНЕСКО) подчёркивают: ИИ не должен вытеснять финальную ответственность человека даже при высокой автоматизации. Нарушение этого принципа – когда организация пытается снять с себя ответственность, ссылаясь на «ошибку алгоритма», – считается этически недопустимым. Поэтому продюсерам важно внедрять системы объяснимости и аудита в управленческих ИИ: чтобы всегда можно было понять логику решения и человек мог его оспорить или скорректировать.
  • Коммуникации и взаимодействие с аудиторией. Тут ИИ проявляется в виде чат-ботов, голосовых помощников, персонализированных рассылок – по сути, ИИ берет на себя часть коммуникационных функций. Граница между помощью и заменой особенно тонка, когда ИИ начинает имитировать человека. Например, в клиентской поддержке бот может решить типовые вопросы быстрее оператора – это помощь. Но если бот притворяется человеком (не раскрывая свою природу) или используется вместо живого общения там, где важно сочувствие и понимание, – это уже обман и подмена. Манипулятивные интерфейсы – отдельная опасность: когда дизайн и ИИ вместе склоняют пользователя принять выгодное компании решение (например, тёмные UX-паттерны, скрывающие кнопку отказа, или push-уведомления, рассчитанные на психологическую уязвимость). Этика требует чёткого разделения, где с пользователем говорит машина, а где – человек. В некоторых юрисдикциях уже действуют нормы: в Калифорнии, к примеру, принят закон, обязывающий ботов идентифицировать себя в политических и коммерческих коммуникациях, чтобы люди не были введены в заблуждение. В России на форуме «Поколение GPT» (2023) тоже обсуждалось введение маркировки контента, созданного ИИ, чтобы аудитория понимала природу информации. Можно сказать, этика коммуникации с ИИ строится на принципе необмана: если пользователь полагает, что разговаривает с человеком, а это не так, доверие подрывается. Поэтому ответственная практика – уведомлять («Этот чат ведется ИИ») и давать опцию «эскалации к человеку». Второй аспект – эмоциональная составляющая: ИИ пока плохо эмпатирует. В ситуациях, требующих эмоционального интеллекта (медицина, психологическая помощь, воспитание) его роль должна быть вспомогательной. Например, ИИ может отслеживать тональность звонка в кол-центр и подсказывать оператору, что клиент расстроен, но вести тяжелый разговор должен человек.
В целом, грань между помощью и заменой проходит по критериям: креативность, эмпатия, ответственность. Всё, что касается ценностей, творчества, морали – оставляется за человеком как носителем этих качеств. ИИ превосходит нас в скорости, анализе массивов данных, точности вычислений – эти задачи ему можно делегировать смело. Но как только речь о сущностно человеческом – исходная идея в искусстве, окончательное «да/нет» судьбоносному решению, этическая оценка контента, эмоциональная поддержка – тут пока консенсус: ИИ должен оставаться инструментом, а не субъектом. Или, как метко заметил один из лидеров индустрии Брэд Смит (президент Microsoft): «баланс между пользой и рисками должен быть найден, и некоторые применения ИИ лучше запретить, чем потом сожалеть». Это отражает осторожный подход: стоит вовремя остановить ИИ от полной автономии там, где последствия неопределенны и потенциально вредны для человека.

Регуляторные и отраслевые рамки: ЕС, Китай, США, Россия

По мере развития ИИ правительства и отрасли по всему миру формируют правила и стандарты, стремясь очертить «красные линии» и обеспечить ответственное внедрение технологий. Эти рамки различаются по регионам, отражая культурные ценности и политические модели. Рассмотрим ключевые примеры и как они влияют на продюсирование продуктов и процессов в ближайшие годы:
  • Европейский Союз (ЕС). Впервые в мире в ЕС создается всеобъемлющий закон о ИИ – «Акт об искусственном интеллекте» (ИИ Act). В июне 2024 года Совет ЕС одобрил финальный текст акта. Этот закон вводит риск-ориентированный подход: ИИ-системы разделяются на четыре категории риска – неприемлемый, высокий, ограниченный и минимальный. Неприемлемые (запрещенные) практики включают, например, социальный скоринг населения или алгоритмы, манипулирующие поведением людей вопреки их воле, а также использование в реальном времени биометрической идентификации в общественных местах (в большинстве случаев). Высокорисковые системы – это ИИ, влияющие на судьбы людей: принятие решений в найме, образовании, кредитовании, правоприменении, а также системы безопасности (например, в транспорте или медицине). Для них будет требоваться соблюдение жёстких требований: оценка рисков, обеспечение качества данных, документация, прозрачность, человеческий надзор, аудит надежности и т.д. Производители и внедряющие организации обязаны проходить сертификацию (маркировка CE) перед выводом таких ИИ-систем на рынок. Ограниченный риск – системы вроде чатботов или deepfake-генераторов – потребует специальных мер прозрачности (например, указывать пользователям, что контент создан ИИ или что они говорят с машиной). Низкий риск – большинство обычных приложений ИИ – прямо не регулируется, хотя поощряется добровольное соблюдение этических кодексов. Закон предусматривает крупные штрафы за нарушение (сопоставимые с GDPR – до €30 млн или 6% оборота). Важный аспект – экстерриториальность: требования распространяются на всех, кто выходит с ИИ-продуктом на рынок ЕС или использует ИИ, влияющий на людей в ЕС. Для продюсеров и предпринимателей это означает, что в течение ближайших 2-3 лет (акт вступает в силу постепенно до 2026–2027 годов) придется встроить в процессы управление рисками ИИ. Например, стартап, разрабатывающий образовательное приложение с ИИ-наставником, должен будет проверить: не попадает ли оно в высокий риск (система, влияющая на успеваемость учащихся), а если да – обеспечить нужные механизмы (прозрачность алгоритма для пользователей, возможность проверки результатов человеком и пр.). ЕС своим актом фактически задает новый глобальный стандарт, подобно тому как GDPR повлиял на практики защиты данных во всем мире. Многие ожидают, что бизнес вне ЕС, желая оставаться совместимым, добровольно начнет соблюдать схожие правила. В области продюсирования продуктов ИИ Act стимулирует подход «Ethics by design»: с самых ранних стадий закладывать соответствие принципам безопасности, недискриминации и контролируемости. Отдельно ЕС продвигает и «мягкие» регуляторные инструменты: этические гайдлайны по доверенному ИИ (2019) с 7 требованиями (человеческое агентство, техническая надежность, приватность, прозрачность, инклюзивность, благополучие и подотчетность). Эти принципы, хоть и добровольные, уже внедряются корпорациями в корпоративные политики в ожидании закона. Вывод: европейский рынок станет более требовательным к этике ИИ, и продюсерам, работающим на него, придется уделять этому первостепенное внимание, включая дополнительные затраты на комплаенс, документацию и тестирование на искажения.
  • США. В Соединённых Штатах пока нет единого федерального закона об ИИ, но формируется мозаика из инициатив и локальных нормативов. Белый дом в 2022 году опубликовал «Blueprint for an ИИ Bill of Rights» – концептуальный документ, предлагающий 5 принципов для ИИ-систем: безопасность и эффективность, защита от дискриминации, приватность данных, извещённость и объяснимость и возможность отказаться в пользу человека. Хотя этот Билль о правах в сфере ИИ не имеет силы закона и носит рекомендательный характер, он отражает направление мысли регуляторов. Уже сегодня ряд положений реализуется через существующие законы: запреты дискриминации распространяются и на алгоритмические решения, защита данных обеспечивается законами о приватности (например, в Калифорнии). На уровне штатов и городов появляются узконаправленные регуляции: Нью-Йорк с 2023 года требует обязательного аудита на искажения инструментов ИИ для найма сотрудников, с публикацией результатов; несколько штатов (Колорадо, Вирджиния и др.) включили положения об автоматизированных решениях в свои законы о приватности. Федеральная комиссия по торговле (FTC) предупреждает, что будет преследовать компании за «неэтичный или обманный» ИИ в рамках существующих законов о защите потребителей. Иными словами, США движутся более декларативно и фрагментарно: государство выпускает принципы и стимулирует отрасль к саморегуляции, а конкретные правила возникают точечно, там где назревают проблемы (например, регулирование глубоких фейков в политической рекламе рассматривается в Конгрессе). Также важную роль играют отраслевые стандарты: Институт стандартов и технологий (NIST) в начале 2023 г. представил Руководство по управлению рисками ИИ – подробный фреймворк, помогающий компаниям оценивать и минимизировать риски при разработке и внедрении ИИ. Этот фреймворк добровольный, но его уже берут на вооружение крупные корпорации для внутренних процессов. Таким образом, для американских продюсеров скорее актуальна саморегуляция под надзором: ключевые компании (Microsoft, Google, Meta, OpenAI и др.) публично объявляют этические принципы, создают исследовательские советы, делятся инструментами для проверки ИИ (например, открытые библиотеки для обнаружения искажений). В отсутствие жестких законов ставка делается на репутацию и ответственность перед пользователями. Однако нельзя исключать, что в ближайшие годы появятся новые законы – импульсом может стать как европейский опыт (бизнесу неудобно работать по разным правилам), так и резонансные случаи вреда от ИИ внутри США. Уже сейчас федеральное правительство обсуждает регулирование ИИ в критических сферах (в 2023 году состоялись слушания в Сенате с участием глав ИИ-компаний). Для продюсеров это означает, что гибкость американского подхода не равна вседозволенности: необходимо следить за отраслевыми лучшими практиками и внедрять этические принципы по собственной инициативе, иначе есть риск потерять доверие аудитории или столкнуться с исками (например, за дискриминацию или утечку данных).
  • Китай. Китайская модель регулирования ИИ характеризуется проактивностью и государственным контролем. Власти КНР видят в этике ИИ не только вопрос прав, но и гарантию социальной стабильности. Уже принят и действует ряд регламентов, опережающих остальной мир: с начала 2023 года вступили в силу Правила об управлении deepfake-технологиями. Эти правила требуют, в частности, четкой маркировки контента, сгенерированного ИИ (изображения, видео, аудио должны иметь заметный знак, если они созданы или изменены алгоритмически). Также запрещены deepfake-материалы, искажающие факты, угрожающие репутации или использующие чужую биометрику без согласия. Китай уделяет внимание и рекомендательным алгоритмам: с 2022 года действует регламент, обязывающий цифровые платформы раскрывать основы работы своих алгоритмов рекомендательных лент и давать пользователям возможность отключить персонализацию. В 2023 году вышли черновые меры по генеративному ИИ – они требуют, чтобы ИИ-контент соответствовал «основным социалистическим ценностям» и не подрывал общественный порядок, а провайдеры генерирующих моделей должны проходить обязательную экспертизу безопасности, прежде чем предложить сервис публике. В целом, китайский подход – жесткое лицензирование и цензура потенциально опасных применений. Это означает, что продюсер, работающий с китайским рынком, будет обязан встроить автоматические фильтры (например, не генерировать запрещенные образы), инструменты маркировки контента, механизмы быстрого удаления незаконного контента по требованию властей. Также китайские регуляции требуют обеспечить недискриминационность алгоритмов: недавно выпущенные отраслевые стандарты предписывают тестировать модели на отсутствие предвзятости и неравного обращения с пользователями. Необычна для западного наблюдателя норма, по которой пользователь тоже несет ответственность за использование ИИ: например, если кто-то с помощью дипфейка очерняет другую личность, наказуем будет не только создатель технологии, но и пользователь-фальсификатор. Для международных компаний Китай диктует: хочешь работать у нас – соблюдай наши правила. Многие глобальные игроки (например, LinkedIn China или Apple) вводят отдельные функции согласно китайским требованиям (цензура определенных запросов, хранение данных локально и т.п.). Влияние на продюсирование очевидно: продукты придется проектировать «с оглядкой» – сразу закладывать возможности ограничивать функционал по регионам, делать системы отчетности и контроля, которые потребуют китайские законы. С позитивной стороны, фокус Китая на маркировке ИИ-контента может подтолкнуть и мировую индустрию к внедрению таких функций повсеместно – для борьбы с дезинформацией это рассматривается как полезная практика.
  • Россия. Российский подход к этике и регулированию ИИ пока эволюционирует, сочетая добровольные инициативы бизнеса и первые шаги государства. В октябре 2021 года в РФ был подписан «Кодекс этики в сфере ИИ» – первый в стране свод принципов, разработанный совместно правительством, компаниями и научными организациями. К нему присоединились ведущие корпорации (Сбербанк, Яндекс, МТС, Ростелеком и др.) и вузовские центры. Кодекс носит добровольный характер, но содержит важные декларации: провозглашены человекоориентированный и гуманистический подход в развитии ИИ, принципы прозрачности, правдивости, ответственности, надежности и инклюзивности технологий. Фактически это этический ориентир для индустрии – бизнесу рекомендуется сотрудничать и обмениваться практиками для повышения доверия общества к ИИ. К концу 2023 года число организаций, поддержавших Кодекс, превысило 270, и планируется регулярное обновление его положений. Также при Минэкономразвития действует Комиссия по этике ИИ, организующая форумы (например, упомянутый форум «Красные линии» в 2023 г.) и вырабатывающая рекомендации. В правовом поле Россия пока не имеет специального закона
ИИ Будущее Знания