От автобеспилотников до автономных дронов: диапазон социально-этических рисков
От автобеспилотников до автономных дронов: диапазон социально-этических рисков
Аннотация
Код статьи
S207054760022754-6-
Тип публикации
Статья
Статус публикации
Опубликовано
Авторы
Соколова Марианна Евгеньевна 
Должность: Старший научный сотрудник
Аффилиация: Институт США и Канады им. академика Г.А. Арбатова Российской академии наук (ИСКРАН)
Адрес: Российская Федерация, Москва
Выпуск
Аннотация

В статье рассматривается ряд этических коллизий, связанных с несовершенством технологий алгоритмизации распознавания и принятия решений на опыте США, России и Китая. Особое внимание уделено социально-этическим рискам и институционализации алгоритмической этики. Подчёркивается роль рисков использования автономного оружия, ударных автономных БПЛА (проект Maven, США). На примере конфликта американской исследовательницы Тимнит Гебру с руководством компании «Гугл» (Google) рассматриваются институциональные риски исследователей. На примере забастовок гиг-работников (Gig workers) китайских цифровых платформ по доставке еды показывается, к каким социальными рискам ведёт бизнес-использование алгоритмов без учёта интересов работников.

Ключевые слова
алгоритмы, этика алгоритмов, институционализация этики ИИ, искусственный интеллект (ИИ), БПЛА, автономные дроны, автономное оружие
Классификатор
Получено
28.08.2022
Дата публикации
24.10.2022
Всего подписок
11
Всего просмотров
283
Оценка читателей
0.0 (0 голосов)
Другие версии
S207054760022754-6-1 Дата внесения исправлений в статью - 20.10.2022
Цитировать Скачать pdf

Библиография

1. Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. М.: Издательский дом Высшей школы экономики, 2021. С.36.

2. Хабриева Т.Я. Право, искусственный интеллект, цифровизация. Человек и системы искусственного интеллекта. СПб., 2022. С. 74-75.

3. Хабриева Т.Я. Право, искусственный интеллект, цифровизация. Человек и системы искусственного интеллекта. СПб, 2022. С. 74-75.

4. Larson J., Mattu S., Kirchner L., Angwin J. How We Analyzed the COMPAS Recidivism Algorithm. 23.05.2016. Available at: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm (accessed 2.11.2021).

5. Khalid A. Google’s AI for mammograms doesn’t account for racial differences. Quartz. 9.11.2020. Available at: https://qz.com/1781123/googles-ai-for-mammograms-doesnt-account-for-race (accessed 2.01.2022).

6. Kelly C. J. et al. Key challenges for delivering clinical impact with artificial intelligence. BMC medicine. – 2019. – Vol. 17. – №. 1. – PP. 1-9.

7. Roberts H., Cowls J., Morley J., Taddeo M., Wang V., Floridi L. The Chinese Approach to Artificial Intelligence: an Analysis of Policy and Regulation. 2021. AI & SOCIETY. 36 (3). С. 17. https://link.springer.com/article/10.1007/s00146-020-00992-2 (accessed 2.05.2022).

8. Кинякина Е., Курашева А. Телемедицина не нашла поддержки у Минздрава. Ведомости. 18.07.2022. Available at: https://www.vedomosti.ru/technology/articles/2022/07/20/932329-telemeditsina-podderzhki (accessed 2.01.2020).

9. Fatić A. The ethics of drone warfare // Filozofija I Društvo. XXVIII (2), 2017. P. 351.

10. Mizokami K. Autonomous Drones Have Attacked Humans. Popularmechanics. 22.05.2022. Available at: https://www.popularmechanics.com/military/weapons/a36559508/drones-autonomously-attacked-humans-libya-united-nations-report/ (accessed 2.06.2022).

11. Кокошин А.А. Вопросы применения технологий и систем искусственного интеллекта в военной сфере Человек и системы искусственного интеллекта. СПб., 2022. С.101.

12. Kallenborn Z. If a killer robot were used, would we know? The Bulletin of the Atomic Scientists. 4.06.2022. Available at: https://thebulletin.org/2021/06/if-a-killer-robot-were-used-would-we-know/#post-heading (accessed 6.06.2022).

13. Kallenborn Z. Giving an AI control of nuclear weapons: What could possibly go wrong? The Bulletin of the Atomic Scientists. 1.02.2022. Available at: https://thebulletin.org/2022/02/giving-an-ai-control-of-nuclear-weapons-what-could-possibly-go-wrong/#post-heading (accessed 27.06.2022).

14. Kallenborn Z. Swarn talk: Understanding drone typology. The Modern War Institute (MWI). 12.10.21. Available at: https://mwi.usma.edu/about-3 (accessed 27.03.2022).

15. Кокошин А.А. Вопросы применения технологий и систем искусственного интеллекта в военной сфере. Человек и системы искусственного интеллекта. СПб., 2022. С. 101.

16. Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven). 26.04.2017. Available at: https://www.govexec.com/media/gbc/docs/pdfs_edit/establishment_of_the_awcft_project_maven.pdf (accessed 27.06.2022).

17. Weisgerber M. The Pentagon’s New Algorithmic Warfare Cell Gets Its First Mission: Hunt ISIS 14.05.2017. Available at: https://www.defenseone.com/technology/2017/05/pentagons-new-algorithmic-warfare-cell-gets-its-first-mission-hunt-isis/137833 (accessed 27.01.2022).

18. Johnson T., Wald Ch.W. The Military Should Teach AI to Watch Drone Footage Opinion. 26.11.2017. Wired. Available at: https://www.wired.com/story/the-military-should-teach-ai-to-watch-drone-footage (accessed 5.05.2022).

19. Steinhardt J., Wei Koh P., Liang P. Certified Defenses for Data Poisoning Attacks. 26.11.2017. Available at: https://arxiv.org/abs/1706.03691 (accessed 7.04.2022).

20. Kallenborn Z. Giving an AI control of nuclear weapons: What could possibly go wrong? The Bulletin of the Atomic Scientists. 1.02.2022. Available at: https://thebulletin.org/2022/02/giving-an-ai-control-of-nuclear-weapons-what-could-possibly-go-wrong/#post-heading (accessed 27.01.2022)

21. Simonite T. Google and Microsoft That AI May Do Dumb Things 02.11.2019. Wired. Available at: https://www.wired.com/story/google-microsoft-warn-ai-may-do-dumb-things/ (accessed: 15.04.2022).

22. Hardesty L. Study finds. MIT - Massachusetts Institute of Technology. 11.02.2018. Available at: https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 (accessed 27.07.2022).

23. Microsoft’s framework for building AI systems responsibly. 21.06.2022. Available at: https://blogs.microsoft.com/on-the-issues/2022/06/21/microsofts-framework-for-building-ai-systems-responsibly (accessed 24.01.2022).

24. О’Коннелл Д. Пришло время пересмотреть наши ожидания от искусственного интеллекта. itWeek. Available at: https://www.itweek.ru/ai/article/detail.php?ID=223796 (accessed 24.01.2022).

25. Муравьев Д. Что не так с комиссиями по этике в IT-компаниях. Как и почему «Google» увольняет специалистов по этике. Теплица социальных технологий. 31.03.2021. Available at: https://te-st.ru/2021/03/31/ethics-google-firing/ (accessed 7.01.2022).

26. Bender E.M., Gebru T., McMillan-Major A., Shmitchell Sh. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 1.03.2021. Available at: https://dl.acm.org/doi/abs/10.1145/3442188.3445922?casa_token=j4JUXljVCYgAAAAA%3AKB4L4ARa0MKjw3mJh7ic8-H1LGQZa-agsCdsNRlitv7ENKbsj-byRfXtJV2VujJxplxq-vtD2Wo (accessed 27.01.2022).

27. Fried I. Google fires another AI ethics leader. 20.02.2021. Axious. Available at: https://www.axios.com/2021/02/19/google-fires-another-ai-ethics-leader (accessed 7.01.2022).

28. Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen. Google Walkout For Real Change. 4.12.2020. Available at: https://googlewalkout.medium.com/standing-with-dr-timnit-gebru-isupporttimnit-believeblackwomen-6dadc300d382 (accessed 7.01.2022).

29. Google’s research philosophy. Available at: https://research.google/philosophy/ (accessed 7.01.2022).

30. Pichai S. AI at Google: our principles. 07.07. 2018. Available at: https://www.blog.google/technology/ai/ai-principles (accessed 7.01.2022).

31. Гореликов А. Крупнейшие агрегаторы заказов отрицают нехватку рук и снижение зарплат // «Яндекс.Еда» и Delivery Club опровергают слухи о забастовке курьеров. 28.04.2022. Available at: https://prosto.rabota.ru/post/yandeks-eda-i-delivery-club-oprovergayut-sluhi-o-zabastovke-kur-erov/ (accessed 7.06.2022).

32. Borak М. China’s gig workers are challenging their algorithmic bosses. Wired. 14.03.2022. Available at: https://www.wired.co.uk/profile/masha-borak. https://www.wired.co.uk/profile/masha-borak (accessed 23.05.2022).

33. Mowbray H. Trending StoriesTrending in China: A Beijing Bureaucrat Worked as Delivery Driver for a Day and Earned Just $6. CXTech. 29.04.2021. Available at: https://www.caixinglobal.com/2021-04-29/trending-in-china-a-beijing-bureaucrat-worked-as-delivery-driver-for-a-day-and-earned-just-6-101703920.html (accessed 23.05.2022).

34. China says to set governance rules for algorithms over next three years. Reuters. 21.09.2021. Available at: https://www.reuters.com/world/china/china-says-set-governance-rules-algorithms-over-next-three-years-2021-09-29 (accessed 23.05.2022)

35. Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. М.: Издательский дом Высшей школы экономики, 2021. С. 36.

36. Когда в России появится «Кодекс по этическим нормам в сфере искусственного интеллекта?» 13.12.2021. Available at: https://www.youtube.com/watch?v=FjfXrzPsGJ8 (accessed 27.01.2022).

37. Новая ИИ-реальность: что изменится в российской индустрии искусственного интеллекта. 30.04.2022. ICT.Moscow. Available at: https://ict.moscow/news/ai-future-in-russia (accessed 29.05.2022).

38. Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения: доклад НИУ ВШЭ. М.: Издательский дом Высшей школы экономики, 2021. С.36.

39. Там же. С.36-37.

Комментарии

Сообщения не найдены

Написать отзыв
Перевести