• Вашингтон, округ Колумбия
Следите за нами

Искусственный интеллект при нарушениях прав человека. Уйгурский вопрос.

Не секрет, что ИИ обладает огромным потенциалом – как хорошим, так и плохим – для многих аспектов жизни, однако его негативное влияние на независимость и свободу человека остается важной и очень опасной темой для нашего будущего.

Сегодня, когда люди думают об искусственном интеллекте, первое, что приходит им на ум, – это, вероятно, такое приложения, как ChatGPT. Это приложение было выпущено около года назад, в ноябре 2022 года. Тот факт, что приложение внезапно привлекло всеобщее внимание и интерес к ИИ у людей, послужил толчком к разработке других приложений.

Фактом является то, что место, где продукты передовых технологий, поддерживаемые искусственным интеллектом используются чаще всего, является Восточный Туркестан, находящийся под китайской оккупацией. Китайский коммунистический режим использует приложения искусственного интеллекта как китайских, так и западных технологических компаний для угнетения мусульман-уйгуров в Восточном Туркестане в течение многих лет до ChatGPT. 

Документальный фильм, показывающий, что такие технологии, как искусственный интеллект, уже давно используются в Восточном Туркестане, был опубликован в 2020 году. То есть еще до того, как был выпущен ChatGPT. Было отмечено, что на момент выхода документального фильма в регионе уже работало 1200 технологических компаний.

Эти технологические компании сначала тестировали разработанные ими приложения, которые нарушают права человека в Восточном Туркестане, а затем экспортировали их в другие страны. Сегодня Восточный Туркестан превратился в гигантское испытательное поле для разработки ИИ. Китайский коммунистический режим уже создал цифровую антиутопическую систему “идеального полицейского государства” –  Восточный Туркестан. Уйгурский народ сегодня живет в условиях жесткой системы наблюдения.

Другой доклад, опубликованный организацией Human Rights Watch (HRW) в 2021 году и документирующий преступления против человечности в Восточном Туркестане, также показывает, как передовые технологии используются в качестве инструмента геноцида. В докладе подчеркивается, что только в префектуре Аксу с помощью интегрированной платформы совместных операций (IJOP) цифровой системы, поддерживаемой технологией искусственного интеллекта, было арестовано 2000 человек.

В том же докладе говорится, что Китай использует передовые технологии не только против уйгуров в Восточном Туркестане, но и для слежки за уйгурами в диаспоре, взламывая их телефоны. Таким образом, отслеживается их каждый шаг, разговоры с семьями и личные встречи.

Как отмечается в докладе, уйгурская диаспора также страдает от подобного транснационального угнетения, последовательно осуществляемого цифровым антиутопическим режимом.

Это, конечно, кажется нереальным. Как еще можно описать использование “детектора эмоций” на уйгурском мужчине, чтобы определить, представляет ли он угрозу для режима? Но для уйгура в Восточном Туркестане это теперь повседневная часть реальности.

Как сообщает BBC в 2021 году, система искусственного интеллекта используется для обнаружения и анализа малейших изменений в выражении лица, чтобы определить, является ли объект негативным, тревожным или подозрительным. Легкого, неуместного подергивания или замедленного моргания может быть достаточно, чтобы ИИ решил, что вы что-то скрываете.

Это не просто чтение микровыражений, ИИ анализирует основные жизненные модели, которые определяются на пункты данных для использования. Любое отклонение от этой модели обозначает вас как угрозу, которая сообщается местной полиции.

Если уйгурский подросток возвращается домой и решает войти в дом через черный ход, а не через парадную дверь, как он/она всегда делал(а), он/она отклоняется от своей модели поведения и теперь считается ненормальным. Если уйгурский дедушка решает пить кофе вместо чая, он отклоняется от своей модели поведения и теперь считается ненормальным. Даже базовая этническая принадлежность анализируется и становится поводом для беспокойства.

И такая информация используется для создания системы социального кредита.

В Китае цензура никогда не была такой простой, как сегодня. Использование ИИ-генераторов контента, таких как ChatGPT и DALL-E, также используется для продвижения или сокрытия информации. Генераторы были модифицированы таким образом, чтобы продвигать только тот контент, который нужен КПК. Алгоритмы ИИ ищут в социальных сетях сообщения с “политически чувствительный” контентом.

Эти алгоритмы также используются для распространения специальных государственных новостей и сообщений среди населения, что позволяет лучше влиять на него и контролировать его. Людям трудно даже критиковать это, потому что алгоритм помечает и удаляет контент, если они обсуждают его в интернете, а если они будут пытаться организовать протест, алгоритмы опознают это и сообщают полиции. Например, в китайской поисковой системе Baidu вы никогда не найдете ни слова о геноциде уйгуров.

Еще один момент, который необходимо подчеркнуть, – это использование ИИ в качестве транснационального инструмента дезинформации китайского коммунистического режима. Следы этого можно увидеть в систематической атаке на различных платформах социальных сетей на активистов или жертв, которые борются за то, чтобы заявить о геноциде в Восточном Туркестане.

Китай также использует передовые технологии для сбора ДНК уйгуров, угрожая будущему человечества. Таким образом, они включают в круг угроз всех родственников людей, которых они объявляют подозрительными.

Этот метод также используется при незаконном извлечении органов уйгуров и продаже их в качестве “халяльных органов” в так называемые мусульманские страны. Китайский коммунистический режим, в руках которого находятся образцы ДНК, создал с помощью этих данных большой источник органов для себя. 

И наконец, ИИ постоянно используется не только против уйгурского народа, но и против любого меньшинства или окраинной группы общества в других частях мира. В различных отчетах говорится, что Индия, Израиль, США, Дания и другие страны также используют ИИ для составления профилей и целевых групп людей. Оценки рисков, выполненные алгоритмами, как показывает практика, имеют предвзятое отношение к этническим меньшинствам, о чем говорил бывший генеральный прокурор США Эрик Холдер и сообщали такие издания, как ProPublica.

Кроме того, биометрические данные, которые часто собираются и анализируются с помощью алгоритмов ИИ, используются для нанесения вреда беженцам, как, например, в случае с репатриацией Индией мусульман-рохинья обратно в Мьянму, где до сих пор продолжается систематический геноцид.

Подводя итог, можно сказать, что использование ИИ в качестве инструмента для геноцида, расизма, исламофобии, системы социальных кредитов и сбора данных, как в Восточном Туркестане, – это горькая реальность, которая указывает на мрачное будущее всего человечества. Реальность ясно показывает нам, что ИИ – это мощный инструмент, который легко можно использовать в качестве оружия. Удивительно видеть, как мало внимания уделяется его потенциалу угнетателя, как мало заботы и размышлений о базовых правах и свободах человека.

Навигация по записям

Copyright Center for Uyghur Study - Все права защищены.

This website uses cookies. By continuing to use this site, you accept our use of cookies.