Искусственный интеллект (ИИ)Технологии

Высокие принципы, противоречивые стимулы: этика ИИ и управление в Китае. Часть-1

Этика использования искусственного интеллекта

Искусственный интеллект изменит до неузнаваемости реальность, к которой мы привыкли – Портал PRC.TODAY.

Основные выводы

  • Вместо того, чтобы быть полностью управляемым сверху, китайский ландшафт этики и управления ИИ формируется множеством действующих лиц и их различными подходами, начиная от центральных и местных органов власти и заканчивая частными компаниями, академическими кругами и общественностью. Нормативный подход Китая к ИИ будет вытекать из сложного взаимодействия этих заинтересованных сторон и их разнообразных интересов.
  • Несмотря на заметные успехи в решении этических вопросов в конкретных секторах и областях применения ИИ, остаётся большой разрыв между определением широких этических принципов и норм, определяющих развитие ИИ, и их практическим воплощением в стандартах, законах и государственном или корпоративном регулировании.
  • Этот разрыв не является уникальным для Китая, но особенно ярко выражен в китайском контексте, поскольку ИИ рассматривается как основное средство для полного достижения видения управления Коммунистической партией Китая, которая отдаёт приоритет государственному контролю и политической безопасности над правами личности. Подлинная забота об этике ИИ сосуществует с использованием Пекином ИИ для массового наблюдения и этнического профилирования.
  • Учитывая стремительные достижения Китая в области искусственного интеллекта, его расширяющееся присутствие в глобальных органах по стандартизации и растущий глобальный охват китайских технологических компаний, для ЕС будет крайне важно взаимодействовать с китайскими игроками. Однако европейские политики должны с большой осторожностью относиться к риторике правительства об этике ИИ и выступать против использования (и экспорта) ИИ Китаем для наблюдения и других приложений, угрожающих правам человека и основным свободам.
    Высокие принципы, противоречивые стимулы: этика ИИ и управление в Китае. Часть-1
    Таблица

Введение

Страны по всему миру используют преобразующее воздействие искусственного интеллекта (ИИ) на свою экономику и общество. Большое внимание уделялось конкуренции и соперничеству между странами, обладающими передовыми возможностями в области исследований и разработок ИИ (R&D), а также разговорам о «гонке ИИ» между Соединенными Штатами и Китаем – и в меньшей степени Европой. Однако этические риски и риски безопасности, связанные с неправильным использованием ИИ, столь же велики, как и его полезный потенциал. Проблемы, связанные со сбоями в управлении искусственным интеллектом, огромны и требуют совместных решений – от алгоритмов распознавания лиц и подбора персонала, несущих предвзятость, до самоуправляемых автомобилей, ставящих под угрозу жизнь людей.

Искусственный интеллект (ИИ) относится как к научной области, так и к широкому набору технологий, которые выполняют задачи, обычно считающиеся требующими человеческого интеллекта, такие как принятие решений путём сбора, обработки и интерпретации данных. Комиссия ЕС определяет ИИ как «системы, которые демонстрируют разумное поведение, анализируя окружающую среду и предпринимая действия (с некоторой степенью автономии) – для достижения конкретных целей».

Под общим термином «этика ИИ» эксперты обсуждают такие вопросы, как то, какую роль системы ИИ должны играть в нашем обществе, какие риски они влекут и как мы должны их контролировать. В последние годы профессиональные ассоциации, компании, правительства и международные организации опубликовали множество этических принципов и руководств по ИИ. Несколько европейских стран и организаций сыграли ключевую роль в этих усилиях, при этом ЕС решительно выступает за разработку рамок рисков и законодательства для обеспечения «надёжного» ИИ, закрепленного в апреле 2021 года в предложении по первым в мире специальным правилам ИИ.

Понимание китайских подходов к этике ИИ и управлению жизненно важно для европейских заинтересованных сторон. Китай будет фундаментальной силой в формировании траектории инноваций и внедрения ИИ, а также способа управления ИИ. Он охватил ИИ и стремится стать основным мировым инновационным центром ИИ к 2030 году. Китайские политики уделяют всё больше внимания этике в контексте управления ИИ, выпустив несколько связанных с этим принципов. За такими инициативами стоит сеть государственных и частных игроков, интересов и голосов.

Читайте и другие НОВОСТИ КИТАЯ  Спутники становятся ключевой вертикалью в растущем космическом секторе Китая

Этот монитор MERICS содержит анализ формирующегося в Китае ландшафта этики и управления искусственным интеллектом. В нём рассматриваются три вопроса:

  • Различные подходы к этике ИИ, используемые государственными, корпоративными, академическими и гражданскими субъектами в Китае.
  • Этические вопросы, связанные с конкретными приложениями (здравоохранение, автономное вождение и общественная безопасность) и как они решаются
  • Роль Китая в глобальных усилиях по этике и управлению ИИ и её последствия для европейских заинтересованных сторон.

Стратегические соображения Пекина и его подход к этике и управлению ИИ

Стремление правительства возглавить мир в области ИИ сопровождается растущим вниманием к управлению этой технологией. В 2018 году председатель КНР Си Цзиньпин призвал к «здоровому развитию» ИИ через создание законов, этики, институциональных механизмов и правил. По мнению руководства, исследование и предотвращение краткосрочных рисков, таких как нарушения конфиденциальности и интеллектуальной собственности, а также долгосрочных проблем, которые системы искусственного интеллекта могут представлять для экономики, социальной стабильности и национальной безопасности, таких как безработица и изменения в социальной этике, имеет первостепенное значение.

Китайские политики уделяют всё большее внимание этике в контексте управления ИИ

Начиная с публикации в 2017 году Плана развития искусственного интеллекта нового поколения Государственного совета (AIDP), правительство выразило своё намерение заняться этическими проблемами, возникающими в системах искусственного интеллекта. В плане говорится, что к 2025 году Китай создаст первоначальную систему законов, правил, этических норм и политики, а также систему оценки безопасности, чтобы «обеспечить безопасное, надёжное и контролируемое развитие искусственного интеллекта». AIDP призывает к усилению исследований по правовым, этическим и социальным вопросам. Он также настоятельно призывает принять такие меры, как этические рамки сотрудничества человека и машины и кодексы поведения персонала, занимающегося исследованиями и разработками продуктов искусственного интеллекта.

С тех пор было выпущено несколько принципов и «белых книг» для руководства управлением ИИ (см. в Белой книге по стандартизации ИИ 2018 года) Китайский институт стандартов электроники (CESI) рекомендовал три всеобъемлющих этических соображения для ИИ: «человеческий интерес», «ответственность» и «согласованность прав и обязанностей». В документе обсуждаются вопросы безопасности, этики и конфиденциальности, а также отражается желание правительства использовать техническую стандартизацию в качестве инструмента в национальных и глобальных усилиях по управлению ИИ.

В 2019 году Министерство науки и технологий (MOST) опубликовало Принципы управления ИИ нового поколения, в которых были выдвинуты восемь принципов разработки «ответственного ИИ». Разработанные специальной экспертной группой, Принципы управления являются наиболее официальной формулировкой китайского подхода к этике ИИ на сегодняшний день.

Понимание терминов, которые использует правительство, необходимо для оценки его видения управления ИИ. Ссылка на «права человека» в Принципах управления не подразумевает одобрения либерально-демократических ценностей, в то время как «социальная безопасность» подразумевает поддержание стабильности путём приоритета коллективного благополучия, как оно определено Коммунистической партией Китая (КПК), над индивидуальными свободами. Кроме того, концепция человеко-машинной гармонии, прочитанная вместе с призывом AIDP к укреплению «руководства общественным мнением», может указывать на намерение подготовить общество к большему мониторингу и управлению на основе данных через ИИ.

Правительство направляет многосторонний диалог по этике ИИ

Хотя дебаты по этике ИИ контролируются Пекином и проходят в строгих рамках целей и интересов партии-государства, это многосторонний разговор.

Читайте и другие НОВОСТИ КИТАЯ  Топ-10 китайских научных достижений 2021 года

В состав комитета по управлению ИИ MOST входят эксперты из ведущих университетов, Китайской академии наук и частных компаний ИИ. Пекинские принципы ИИ, ключевой документ, предшествовавший Принципам управления, также стали результатом обсуждения с участием университетов и компаний под руководством Пекинской академии искусственного интеллекта (BAAI), ведущего исследовательского института ИИ, поддерживаемого большинством и Пекинским муниципальным правительством.

Третий основополагающий набор принципов, Совместное обязательство по самодисциплине в индустрии ИИ, также появился в результате консультаций между различными игроками. Его процесс был запущен Промышленным альянсом искусственного интеллекта, ассоциацией университетов и технологических фирм во главе с Китайской академией информационных и коммуникационных технологий (CAICT) Министерства промышленности и информационных технологий (MIIT), главным правительственным аналитическим центром по вопросам технической политики.

Высокие принципы, противоречивые стимулы: этика ИИ и управление в Китае. Часть-1
Карта

Центральной чертой всех этих дискуссий является их прикладной подход. Для стимулирования осуществления на местном уровне большинство из них призывает муниципальные органы власти активизировать соответствующую работу в пилотных зонах ИИ (см. Карта). Кроме того, как Пекинские принципы ИИ, так и Совместное обязательство сосредоточены на применимых и ориентированных на конкретные действия целях и мерах по обеспечению того, чтобы траектория развития ИИ на протяжении всего жизненного цикла систем, от НИОКР до коммерциализации, была полезной для общества.

Обеспечение стабильности является ключевой целью стратегии ИИ Китая

Риторика правительства и внимание к этике могут показаться лицемерными, учитывая его использование ИИ для массового наблюдения, репрессий и этнического профилирования. Однако с точки зрения руководства Китая и его морально-этических рамок это не представляет противоречия. Национальная безопасность и стабильность являются высшими коллективными благами, имеющими приоритет над личной неприкосновенностью, прозрачностью, подотчётностью и индивидуальными правами человека.

КПК рассматривает безопасность и стабильность как предпосылки, а также продукты экономического развития, что является ключевой целью китайской стратегии искусственного интеллекта. Одной из главных целей AIDP является модернизация социального управления, которая предполагает не только оптимизацию предоставления государственных услуг, но и построение модернизированного социалистического общества, например, посредством использования искусственного интеллекта для «понимания группового познания и психологических изменений».

Кроме того, партия оправдывает свой контроль над правовой системой, аргументируя необходимость отражения угроз со стороны внутренних и внешних врагов для достижения высшей цели – сохранения политической безопасности. Таким образом, с точки зрения КПК, использование ИИ против части населения, которую она рассматривает как террористическую угрозу обществу, как в случае с уйгурами в Синьцзяне, может сосуществовать с усилиями по обеспечению того, чтобы системы ИИ не причиняли вреда большинству.

Этические вопросы алгоритмического принятия решений строятся вокруг интересов коллектива, единственным законным представителем которого является партия-государство, а не индивида. Эта логика также объясняет, почему формирующийся режим защиты данных направлен на введение ограничений на способность компаний собирать личную информацию, но оставляет правительству почти неограниченные полномочия по сбору и использованию данных граждан для обеспечения общественной безопасности и правопорядка.

Статья «Высокие принципы, противоречивые стимулы: этика ИИ и управление в Китае», подготовлена Порталом PRC.TODAY по материалам аналитика Mercator Institute for China Studies (MERICS) – Ребекки Аркесати.

Продолжение в следующей части статьи.

Если вам понравилась статья или появились вопросы, оставьте ваш комментарий или обсудите эту статью на форуме.ютуб китай сегодня prc.today

посмотрите другие новости Китая на prc.today

Маркировка косметики в Китае

Инвестиционные возможности в китайскую развлекательную отрасль

Китай – Дайджест важных новостей за неделю (N60)

Поделиться:

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Back to top button