Антикоррупционный портал НИУ ВШЭ
Опубликован доклад о коррупционных рисках использования искусственного интеллекта

Международная неправительственная организация Transparency International (TI) опубликовала аналитическую заметку о рисках злоупотреблений, связанных с использованием искусственного интеллекта (ИИ), со стороны должностных лиц.

Как отмечено в документе, технология искусственного интеллекта сегодня все активнее применяется в различных сферах, в том числе и в области противодействия коррупции. В частности, ИИ был использован для:

  • прогнозирования коррупционных правонарушений на основе данных из новостных СМИ, полицейских архивов и финансовых отчетов;
  • аккумуляции информации о возможных нарушениях установленных запретов со стороны должностных лиц парламента посредством отслеживания публикуемых ими в социальных сетях сообщений о возмещении расходов с использованием ботов, которая в дальнейшем может быть использована для анализа, например, журналистами-расследователями;
  • выявления фактов отмывания доходов, в том числе коррупционных, с помощью анализа больших данных о финансовых операциях и т.д.

Однако, несмотря на большой потенциал, применение ИИ может иметь и негативные последствия:

  • непреднамеренные – появляющиеся из-за необъективных исходных данных, ошибочных алгоритмов или безответственной реализации;
  • намеренные – включая злоупотребления функциями систем ИИ должностными лицами для получения личной выгоды.

В своем докладе эксперты TI рассматривают вторую группу негативных эффектов внедрения ИИ, выделяя следующие формы такого рода злоупотреблений:

1) Разработка систем ИИ для использования в коррупционных целях.

Риски недобросовестного использования могут реализоваться еще на этапе разработки систем ИИ, которые изначально могут создаваться таким образом, чтобы в дальнейшем применяться для осуществления неправомерной деятельности, в частности, для:

  • создания фейков, направленных на дискредитацию и/или запугивание политических противников должностных лиц, в том числе с использованием технологии deepfake и ее аналогов;
  • информационной пропаганды: так, боты в социальных сетях могут выдавать себя за реальных пользователей, продвигая политические программы и манипулируя общественным мнением, в том числе по спорным вопросам, связанным с противодействием коррупции, и т.д.

2) Манипулирование кодом или данными, на которых обучается ИИ, для достижения коррупционных целей.

В недолжных целях могут быть использованы и системы ИИ, изначально создаваемые в интересах общества. В таком случае недобросовестные должностные лица могут воспользоваться имеющимися в них уязвимостями и, например, прибегнуть к алгоритмическому захвату (algorithmic capture) – манипулированию алгоритмами ИИ для совершения систематического выбора в пользу определенных лиц, в том числе за вознаграждение со стороны таких лиц. Так, при разработке системы для прогнозирования вероятности выживания пациента в случае заболевания COVID-19 такой подход может использоваться, чтобы обеспечить предоставление приоритетной медицинской помощи выбранным лицам; в процессе найма на работу или приема в университет системы ИИ, действие которых основано на анализе резюме, результатов тестов, записей собеседований и т.д., могут быть использованы для выбора в пользу конкретных кандидатов; при проведении государственных закупок разработка «правильного» алгоритма позволит выбранной компании (компаниям) постоянно выигрывать тендеры в будущем и т.д.

3) Использование существующих систем ИИ в коррупционных целях.

Наконец, должностные лица могут использовать для реализации коррупционных схем уже действующие системы ИИ.

Ярким примером коррупции такого рода является злоупотребление должностными лицами инструментом Pegasus, разработанным для противодействия терроризму, но используемым высокопоставленными должностными лицами для слежки, угроз и запугивания политических оппонентов или конкурентов в бизнесе, а также журналистов-расследователей.

Кроме того, манипулирование действующими системами ИИ может происходить за счет использования микротаргетинга, направленного на небольшие группы людей на основе их предпочтений: так, политики нередко злоупотребляют своим служебным положением, обращаясь к микротаргетированным рекламным кампаниям для продвижения своих партий.

В целом, как отмечено в документе TI, использованию должностными лицами систем ИИ в недобросовестных целях могут способствовать следующие факторы:

1. технические:

  • способность систем ИИ действовать автономно;
  • непрозрачность работы систем ИИ, особенно в случае машинного обучения;
  • масштабируемая персонализация контента (например, в процессе микротаргетинга);

2. человеческие:

  • рассеивание ответственности за счет перекладывания вины на системы ИИ;
  • высокая вероятность непривлечения к ответственности в связи со сложностью определения конкретного лица, виновного в некорректной работе систем ИИ;
  • психологическое дистанцирование от лиц, которым был нанесен ущерб в результате неправомерной деятельности.

В связи с этим авторы документа предлагают следующие рекомендации для противодействия злоупотреблениям и коррупции в процессе использования систем ИИ:

  • разработать и принять нормативную правовую базу, регулирующую использование систем ИИ, а также руководящие принципы этического внедрения и развития систем ИИ, в том числе с учетом рекомендаций международных организаций, например, документов Группы экспертов высокого уровня по регулированию систем ИИ при Европейской комиссии (High Level Expert Group on AI by the European Commission), ОЭСР или ЮНЕСКО;
  • обеспечить прозрачность и подотчетность данных, на которых обучаются системы ИИ, а также их кода;
  • проводить независимый аудит систем ИИ, например, с привлечением организаций гражданского общества, таких как Algorithmic Justice League или Algorithm Watch;
  • обеспечить совместимость языков программирования, используемых в процессе машинного обучения, для упрощения проведения проверок, в частности, посредством обращения к библиотеке ONNX, содержащей направленное на построение нейронных сетей глубокого обучения программное обеспечение с открытым исходным кодом;
  • проводить обучение для лиц, вовлеченных в разработку и внедрение систем ИИ, а также в осуществление их аудита, в том числе по вопросам соблюдения принципов этики и противодействия коррупции, и/или принимать кодексы поведения, распространяющиеся на таких лиц;
  • повышать осведомленность населения, в первую очередь сотрудников организаций, в которых внедряются системы ИИ, о неспособности систем ИИ самостоятельно раскрывать информацию о нарушениях и важности предоставления такой информации со стороны заявителей.
Темы
ИКТ
Темы
ИКТ

Мы используем файлы cookies для улучшения работы сайта НИУ ВШЭ и большего удобства его использования. Более подробную информацию об использовании файлов cookies можно найти здесь, наши правила обработки персональных данных – здесь. Продолжая пользоваться сайтом, вы подтверждаете, что были проинформированы об использовании файлов cookies сайтом НИУ ВШЭ и согласны с нашими правилами обработки персональных данных. Вы можете отключить файлы cookies в настройках Вашего браузера.