Искусственный интеллект (ИИ)Технологии

Высокие принципы, противоречивые стимулы: этика ИИ и управление в Китае. Часть-2

Этика использования искусственного интеллекта

Китай очень много делает для развития искусственного интеллекта – Портал PRC.TODAY.

Как промышленность, научные круги и гражданское общество продвигают этический ИИ

Промышленность играет ключевую роль в формировании китайских дискуссий

Китайское руководство видит промышленность в качестве ключевого фактора координации саморегулирования, исследований и образования по этике ИИ, хотя регуляторы в конечном счёте устанавливают правила управления. В нём подчёркивается важность корпоративного саморегулирования, а в недавней белой книге, опубликованной CAICT, компании определены в качестве основных субъектов управления ИИ в ближайшей перспективе. Многие ведущие технологические компании и стартапы выступили с призывами решить вопросы управления и этики, связанные с разработкой и коммерциализацией приложений искусственного интеллекта. Они также объединяют усилия многих заинтересованных сторон по разработке этических принципов и отраслевых стандартов для ответственного развития ИИ, одновременно инициируя свои собственные исследования и принципы для решения проблем этики.

Многие компании были прямо или косвенно вовлечены в каждый из трёх основополагающих документов Китая по ИИ, из которых совместное обязательство является отраслевым обязательством саморегулирования. Семь членов комитета по управлению ИИ MOST, например, включают двух руководителей из гиганта электронной коммерции JD.com и распознавание лиц единорога Megvii, демонстрирующее, что компании непосредственно участвуют в разработке политических рекомендаций и руководящих документов, таких как Принципы управления.

Технологические гиганты и стартапы ИИ являются основателями ранее упомянутого BAAI и других ключевых отраслевых альянсов, стоящих за принципами ИИ и белыми документами. Baidu и Tencent также представили предложения по этике ИИ непосредственно руководству Китая. Многие компании тем временем активно участвуют в деятельности по установлению внутренних стандартов, связанных с ИИ.

Корпоративное саморегулирование до сих пор в основном принимало форму этических кодексов высокого уровня. Наиболее примечательно, что Baidu, Tencent и Megvii выпустили документы, которые выдвигают этические принципы для руководства их собственным и отраслевым развитием ИИ. Все три подчёркивают сходные понятия, такие как важность технической надёжности и безопасности, человеческий надзор, конфиденциальность данных и подотчётность. Принципы искусственного интеллекта Tencent-это самые подробные принципы, разработанные китайской компанией до сих пор. Выпущенные в 2018 году, они призывают к тому, чтобы ИИ был доступен, надежен, понятен и управляем, а также подчеркивают конкретные проблемы, такие как алгоритмическая прозрачность.

Компании также проводят обширные исследования по вопросам управления и этики через специальные отделы. Их исследования, большая часть которых предшествовала повышенному вниманию правительства к этике ИИ, варьируются от методов сохранения конфиденциальности в машинном обучении до методов защиты от враждебных атак на системы глубокого обучения.

Генеральные директора и руководители ИИ также выступают за междисциплинарные обмены и совместные действия по этике ИИ, позиционируя себя в качестве лидеров мысли по вопросам управления ИИ на ключевых отраслевых форумах, таких как ежегодная Всемирная конференция ИИ в Шанхае. Некоторые также повышают осведомленность общественности о рисках применения ИИ в повседневной жизни с помощью таких кампаний, как «ИИ во благо».

В то время как многие технологические компании и ИИ чётко признают важность управления социальным и этическим воздействием ИИ, лишь немногие институционализировали шаги, которые превращают обязательства высокого уровня в конкретные процедуры. Их исследования и принципы этики ИИ, хотя и представляют собой добросовестные намерения, в основном не имеют конкретных мер реализации, направленных на решение конкретных проблем, которые они выявляют, от алгоритмической справедливости до конфиденциальности данных.

Megvii – одна из немногих компаний, создавших внутренние структуры, такие как Комитет по этике ИИ, для контроля за реализацией своих принципов ИИ. Говорят, что этот комитет выносит рекомендации правлению на основе внутренних расследований и процедуры разоблачения. Однако один из перечисленных международных членов говорит, что он никогда не входил в состав комитета, и остается неясным, какие изменения (если таковые имели место) – он произвёл.

Кажется логичным, что компании должны быть на переднем крае выявления и устранения вредных последствий применения ИИ, учитывая, что они исследуют, разрабатывают и внедряют ИИ в реальных ситуациях. Они также получают стимул предвидеть и устранять риски, связанные с их продуктами и услугами ИИ, чтобы избежать негативной реакции со стороны регулирующих органов или широкой общественности.

Однако на данный момент всё ещё неясно, ведут ли декларации корпоративной этики ИИ к значимым изменениям во внутренних процессах исследований и разработок или же они в конечном счёте являются пустыми обязательствами, которые служат только укреплению репутации компаний. Компании также обычно неохотно внедряют потенциально дорогостоящие и трудоёмкие механизмы обеспечения безопасности и этичности продуктов искусственного интеллекта.

Тесная связь технологических и ИИ-компаний с правительством добавляет дополнительный уровень сложности, поскольку правительство не только оказывает обширную политическую поддержку, но и часто является крупным клиентом корпораций. Таким образом, обязательства компаний по этике ИИ часто резко контрастируют с их продажей продуктов ИИ, таких как распознавание лиц или инструменты анализа этнических меньшинств, аппарату общественной безопасности.

Читайте и другие НОВОСТИ КИТАЯ  Китай улучшает регулирование платформенной экономики, не ослабляя её

Китайские академические исследования также формируют дискуссии по этике ИИ

Академические исследования социальных и этических последствий ИИ всё чаще становятся основой дискуссий об управлении ИИ в Китае. Обзор соответствующих публикаций с 2017 года показывает, что, хотя исследовательские усилия подходят к этому вопросу с различных точек зрения, большинство из них всё ещё ограничиваются концептуализацией изменений, вызванных ИИ, и предлагают нормативные и регулирующие рамки. Критические исследования по конкретным приложениям в основном отсутствуют, хотя есть заметные исключения.

Этические исследования проводятся в рамках государственных проектов и инициатив отдельных ученых. Два ведущих научно-исследовательских института Китая под эгидой Государственного совета – Китайская академия наук (CAS) и Китайская академия социальных наук (CASS), проводят соответствующие работы, некоторые из которых спонсируются крупнейшим Государственным исследовательским фондом Китая в области социальных наук – Национальным фондом социальных наук Китая. Один проект, возглавляемый Институтом автоматизации в CAS, исследует такие вопросы, как отношения между людьми и ИИ и проблемы, связанные с определением ответственности. Исследователи, спонсируемые CAS, также применяют исследования в области социальных наук к практическим проблемам, таким как проблемы социальной этики, вызванные внедрением роботов в семьи.

Несколько выдающихся учёных особенно влиятельны в продвижении этических исследований. В CASS Дуань Вэйвэнь (Duan Weiwen) – один из самых выдающихся китайских мыслителей по философским, этическим и социальным вопросам, связанным с искусственным интеллектом и большими данными, возглавляет Исследовательский центр науки, техники и общества. Дуань часто подчёркивает, что инновации развиваются быстрее этики, что требует целенаправленной работы по устранению этических рисков в конкретных сценариях применения технологий, а не абстрактных предписаний. Он также выступает за участие общественности и надзор в вопросах этики.

Некоторые исследователи подходят к этике ИИ с точки зрения традиционной китайской философии. CAS – дочерняя компания Zeng Yi, возглавила разработку Принципов гармоничного искусственного интеллекта, в основе которых лежит концепция «гармонии» в китайской философии. Эти принципы подчёркивают гармонию между людьми и машинами, концепцию, которая также присутствует в Пекинских принципах ИИ, и выступает за положительный симбиоз между ними. Помимо того, что Цзэн играет ведущую роль в разработке нескольких основополагающих документов, упомянутых в этом докладе, он руководит крупными прикладными исследованиями в области этики в таких областях, как архитектура нейронных сетей, вдохновленная мозгом.

Го Руй Университета Жэньминь, другой выдающийся учёный и государственный советник, фокусируется на переводе этических принципов в действенную систему управления. Го выступал за то, чтобы компании создавали комитеты по этике, и в своей последней книге рассматривает этические риски конкретных приложений ИИ, от точного маркетинга и алгоритмов рекомендаций контента до секс-роботов и интеллектуальных судов.

Китайские академические круги активно участвуют в глобальных обменах мнениями по этике ИИ. Это согласуется с призывом правительства увеличить «дискурсивную силу» страны в этой области. Ярким примером взаимодействия между научными обменами и амбициями государства в области мягкой силы является Китайский центр Берггрюэна, созданный Пекинским университетом и Институтом Берггрюэна в 2018 году с заявленной целью привлечения китайских мыслителей к «изучению, обмену и разработке идей для решения глобальных проблем». Этика ИИ – одно из основных направлений исследований центра. Кроме того, в 2020 году Университет Цинхуа учредил Институт глобального управления искусственным интеллектом, чтобы «активно способствовать китайской мудрости» и формировать эту область.

Хотя продвижение официальных китайских концепций глобального управления является важной целью этих инициатив, было бы неправильно рассматривать все научные исследования и сотрудничество как движимые целями государства. Широкий спектр отдельных исследовательских инициатив отражает подлинное стремление учёных сделать ИИ полезным для человечества, а также преодолеть политическую напряжённость и культурные барьеры между Китаем и Западом для развития сотрудничества. Сюэ Лань, директор вышеупомянутого института Цинхуа, предупредил, что геополитическая напряжённость между Китаем и Соединенными Штатами оказывает охлаждающее воздействие на промышленность и политические обмены в области ИИ, что может помешать сотрудничеству в области глобального управления ИИ.

BAAI превратился в ведущий китайский научно-исследовательский институт искусственного интеллекта и центр многостороннего и международного сотрудничества. В институте есть исследовательский центр, возглавляемый Цзэном, который занимается исследованием этики ИИ, управления и решений для устойчивого развития. Чтобы способствовать международному диалогу, недавно опубликованное исследование BAAI и исследователей из Кембриджского университета призывает академические круги играть большую роль в преодолении культурных барьеров на пути сотрудничества в области этики и управления ИИ.

Читайте и другие НОВОСТИ КИТАЯ  Китай представляет последнее поколение приложений безопасности на базе искусственного интеллекта

Китайские учёные, похоже, набирают влияние в официальных правительственных усилиях по управлению ИИ. Сюэ и Цзэн, например, также являются членами Комитета по управлению ИИ большинства. Однако ещё предстоит выяснить, в какой степени учёные смогут непосредственно влиять на государственную политику, корпоративную практику и регулирование в направлении более высоких этических стандартов.

Общественное противодействие рискам ИИ привело к некоторым изменениям в регулировании

Хотя в целом общественность не рассматривается как решающая сила в развитии искусственного интеллекта в Китае, китайские граждане настаивают на этических ограничениях некоторых вариантов использования. Несмотря на распространенное на Западе мнение о том, что китайцы особенно доверяют новым технологиям, растёт осведомлённость, споры и иногда противодействие, связанные с рисками искусственного интеллекта. В некоторых случаях это привело к изменению политики и корпоративному саморегулированию.

Китайские потребители заботятся о защите своей личной информации. Когда в 2018 году генеральный директор Baidu Робин Ли сказал, что китайцы менее чувствительны к конфиденциальности и более охотно обменивают её на удобство, он столкнулся с интенсивной оппозицией в социальных сетях. Во время вспышки Covid-19 использование приложений мониторинга, которые собирают медицинскую информацию и данные о местоположении, также вызвало общественную критику из-за опасений по поводу дискриминации и эрозии конфиденциальности.

В последние годы негативная реакция потребителей сыграла ключевую роль в привлечении китайских технологических компаний к ответственности за нарушения конфиденциальности данных и стимулировании регуляторов к созданию более строгих правил. Результирующий режим данных, который, в частности, включает Спецификацию безопасности персональной информации и скоро завершающийся Закон о защите персональной информации, налагает широкие ограничения на способность компаний обрабатывать личную информацию.

Распространенность технологий наблюдения, основанных на ИИ, также беспокоит граждан. В одном из опросов 2019 года более 70 процентов респондентов выразили озабоченность по поводу нарушений конфиденциальности при внедрении систем распознавания лиц.

Серия гражданских исков также привлекла внимание к проблемам конфиденциальности граждан в связи с растущим использованием Китаем распознавания лиц в общественных местах. Первый был подан в 2019 году против парка дикой природы в Ханчжоу за внедрение системы контроля доступа распознавания лиц. Этот человек выиграл знаковое дело, которое вызвало интенсивные онлайн-дискуссии о чрезмерном сборе данных о лицах. Затем последовало ещё несколько громких дел. Между тем, видные учёные рекомендовали использовать технические меры и процессы, такие как этика по замыслу в дополнение к регулированию, чтобы обеспечить ответственное использование биометрического распознавания.

Кажется неслучайным, что регулирование распознавания лиц привлекает всё большее внимание ведущих китайских законодателей. Как недавно принятый Гражданский кодекс, так и вышеупомянутые правила о персональных данных ужесточают ограничения на сбор биометрических данных. Совсем недавно нормотворческие органы опубликовали проект специальных национальных стандартов безопасности данных для распознавания лиц. Несколько городов также ввели или рассматривают возможность введения правил ограничения использования распознавания лиц и штрафуют компании за нарушение конфиденциальности данных.

Ещё одна заметная общественная реакция развернулась в ответ на рост deepfakes – ложных или измененных изображений, видео и аудио, генерируемых с помощью ИИ. В августе 2019 года выпуск приложения для обмена лицами ZAO вызвал почти немедленное возмущение среди пользователей по поводу конфиденциальности данных и нарушений авторских прав. Регуляторов отреагировали быстро, потребовав, чтобы материнская компания приложения приняла корректирующие меры. Впоследствии WeChat ограничила некоторый доступ к приложению на своей платформе обмена сообщениями, сославшись на риски безопасности.

Вскоре после этого власти предприняли первые шаги по регулированию использования и распространения deepfakes. Один из программных документов, выпущенный, по-видимому, в ответ на инцидент с ZAO, требует от поставщиков онлайн-информационных услуг рассматривать и маркировать любой аудиовизуальный контент, созданный с использованием новых технологий, таких как глубокое обучение.36 Правила также запрещают использовать глубокое обучение для создания, публикации или передачи фальшивых новостей.

Хотя эти примеры показывают, что гражданское общество в какой-то степени влияет на правительственные правила и корпоративные действия, связанные с этикой ИИ, их способность делать это в конечном счёте ограничена политической системой Китая. Например, режим защиты данных в Китае предоставляет правительству неограниченные полномочия по сбору и использованию данных граждан для своей навязчивой деятельности в области общественной безопасности и правоохранительных органов.

Статья «Высокие принципы, противоречивые стимулы: этика ИИ и управление в Китае», подготовлена Порталом PRC.TODAY по материалам аналитика Mercator Institute for China Studies (MERICS) – Ребекки Аркесати.

Продолжение в следующей части статьи.

Если вам понравилась статья или появились вопросы, оставьте ваш комментарий или обсудите эту статью на форуме.

посмотрите другие новости Китая на prc.today

Проблемы традиционного управления персоналом и заработной платой в Китае в эпоху после COVID-19

Новости китайской компании Huawei

Поделиться:

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Back to top button