Книги онлайн » Книги » Научные и научно-популярные книги » Медицина » Искусственный интеллект в здравоохранении - Коллектив авторов
Перейти на страницу:
2021–2025 // IMDRF. 2020. September 25. http://www.imdrf.org/docs/imdrf/fnal/procedural/imdrf-proc-n39-strategic-plan-200925. pdf (дата обращения: 01.03.2022).

Taherkhani A., Belatreche A., Li Yu., Cosma G., Maguire L. P., McGinnity T. M. A review of learning in biologically plausible spiking neural networks // Neural Networks. 2020. Vol. 122. P. 253–272. https://doi.org/10.1016/j.neu-net.2019.09.036

World Commission on the Ethics of Scientifc Knowledge and Technology. Report of COMEST on robotics ethics. Paris: United Nations Educational, Cultural and Scientifc Organization, 2017. https://unesdoc.unesco.org/ark:/48223/pf0000253952 (дата обращения: 15.10.2022).

Xafs V., Schaefer G. O., Labude M. K., Brassington I., Ballantyne A., Lim H. Y., Lipworth W., Lysaght T., Stewart C., Sun S., Laurie G. T., Tai E. Sh. An ethics framework for big data in health and research //Asian Bioethics Rev. 2019. No. 11. P. 227–254.

Zhang X. Q., Zhao S.-G. Cervical image classifcation based on image segmentation preprocessing and a CapsNet network model // International Journal of Imaging Systems and Technology. 2019. No. 29 (3). P. 1–10.

Zubof S. Te age of surveillance capitalism. London: Principle Books, 2019.

Приложения

Приложение 1

Работы по прогнозированию в вертебрологии с использованием искусственного интеллекта

Источник: [Переверзев и др., 2021, с. 813–820]

Приложение 2

Российские системы ИИ для здравоохранения

Источник: [Гусев, 2023]

Приложение 3

Кодекс этики в сфере искусственного интеллекта

(принят 26 октября 2021 г. Альянсом в сфере ИИ при поддержке Аналитического центра при Правительстве РФ и Минэкономразвития; https://ethics.a-ai.ru/)

Кодекс этики в сфере искусственного интеллекта (далее – Кодекс) устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта (далее – Акторы ИИ) в своей деятельности, а также механизмы реализации положений настоящего Кодекса.

Кодекс распространяется на отношения, связанные с этическими аспектами создания (проектирования, конструирования, пилотирования), внедрения и использования технологий ИИ на всех этапах жизненного цикла, которые в настоящее время не урегулированы законодательством Российской Федерации и/или актами технического регулирования.

Рекомендации настоящего Кодекса рассчитаны на системы искусственного интеллекта (далее – СИИ), применяемые исключительно в гражданских (не военных) целях.

Положения Кодекса могут быть расширены и/или конкретизированы для отдельных групп Акторов ИИ в отраслевых или локальных документах по этике в сфере ИИ с учетом развития технологий, особенностей решаемых задач, класса и назначения СИИ, уровня возможных рисков, а также специфического контекста и среды, в которой применяются СИИ.

Раздел 1. Принципы этики и правила поведения

1. Главный приоритет развития технологий ИИ в защите интересов и прав людей и отдельного человека

1.1. Человеко-ориентированный и гуманистический подход. При развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность. Разрабатываемые Акторами технологии ИИ должны способствовать или не препятствовать реализации всех потенциальных возможностей человека для достижения гармонии в социальной, экономической, духовной сфере и наивысшего расцвета личности, учитывать ключевые ценности, такие как сохранение и развитие когнитивных способностей человека и его творческого потенциала; сохранение нравственных, духовных и культурных ценностей; содействие культурному и языковому многообразию, самобытности; сохранение традиций и устоев наций, народов, этносов и социальных групп.

Человеко-ориентированный и гуманистический подход является основным этическим принципом и центральным критерием оценки этичного поведения Акторов в сфере ИИ, перечень которых определен в разд. 2 настоящего Кодекса.

1.2. Уважение автономии и свободы воли человека. Акторы ИИ должны принимать необходимые меры, направленные на сохранение автономии и свободы воли человека в принятии им решений, права выбора и в целом сохранения интеллектуальных способностей человека как самостоятельной ценности и системообразующего фактора современной цивилизации. Акторы ИИ должны на этапе создания СИИ прогнозировать возможные негативные последствия для развития когнитивных способностей человека и не допускать разработку СИИ, которые целенаправленно вызывают такие последствия.

1.3. Соответствие закону. Акторы ИИ должны знать и соблюдать положения законодательства Российской Федерации во всех сферах своей деятельности и на всех этапах создания, внедрения и использования технологий ИИ, в том числе в вопросах юридической ответственности Акторов.

1.4. Недискриминация. В целях обеспечения справедливости и недопущения дискриминации Акторы ИИ должны принимать меры для того, чтобы удостовериться, что применяемые ими алгоритмы и наборы данных, методы обработки используемых для машинного обучения данных, при помощи которых осуществляется группирование и/или классификация данных, касающихся отдельных лиц или групп лиц, не влекут их умышленную дискриминацию. Акторам рекомендуется создавать и применять методики и программные решения, выявляющие и препятствующие возникновению дискриминации по признакам расовой, национальной, половой принадлежности, политических взглядов, религиозных убеждений, возраста, социального и экономического статуса или сведений о частной жизни (при этом дискриминацией не могут признаваться явно задекларированные Актором ИИ правила функционирования или применения СИИ для разных групп пользователей, сегментированных с учетом таких признаков).

1.5. Оценка рисков и гуманитарного воздействия. Акторам ИИ рекомендуется проводить оценку потенциальных рисков применения СИИ, включая социальные последствия для человека, общества и государства, гуманитарного воздействия СИИ на права и свободы человека на разных стадиях ее жизненного цикла, в том числе при формировании и использовании наборов данных; осуществлять долгосрочный мониторинг проявления таких рисков; учитывать сложность поведения СИИ, включая взаимосвязь и взаимозависимость процессов в жизненном цикле СИИ при оценке рисков.

Для приложений СИИ в особых случаях приветствуется проведение оценки рисков посредством привлечения нейтральной третьей стороны или уполномоченного официального органа, но без ущерба для работоспособности и информационной безопасности СИИ, а также охраны интеллектуальной собственности и коммерческой тайны разработчика.

2. Необходимо осознавать ответственность при создании и использовании ИИ

2.1. Риск-ориентированный подход. Уровень внимания к этическим вопросам в области ИИ и характер соответствующих действий Акторов ИИ должен быть пропорционален оценке уровня рисков, создаваемых конкретными технологиями и СИИ для интересов человека и общества. Оценка уровня рисков учитывает известные и возможные риски, при этом принимается во внимание как уровень вероятности угроз, так и

Перейти на страницу:
В нашей электронной библиотеке 📖 можно онлайн читать бесплатно книгу Искусственный интеллект в здравоохранении - Коллектив авторов. Жанр: Медицина / Юриспруденция. Электронная библиотека онлайн дает возможность читать всю книгу целиком без регистрации и СМС на нашем литературном сайте kniga-online.com. Так же в разделе жанры Вы найдете для себя любимую 👍 книгу, которую сможете читать бесплатно с телефона📱 или ПК💻 онлайн. Все книги представлены в полном размере. Каждый день в нашей электронной библиотеке Кniga-online.com появляются новые книги в полном объеме без сокращений. На данный момент на сайте доступно более 100000 книг, которые Вы сможете читать онлайн и без регистрации.
Комментариев (0)