В Москве обсудили, кто должен контролировать искусственный разум
Гарантированный контроль разработок самообучающихся технологий искусственного интеллекта (ИИ) в интересах национальной безопасности способно обеспечить только государство. Такое мнение высказал врио начальника Главного управления научно-исследовательской деятельности и технологического сопровождения передовых технологий (инновационных исследований) Минобороны РФ генерал-майор Александр Осадчук на первом международном форуме "Этика искусственного интеллекта: начало доверия".
Генерал-майор Осадчук подчеркнул, что создание необходимых и достаточных условий национальных интересов в сфере безопасности является обязательным критерием.
По его словам, в ходе совместной работы с аналитическим центром по согласованию проекта Кодекса этики искусственного интеллекта были учтены замечания по приоритету национальных интересов и по вопросам выполнения требований Стратегии национальной безопасности, а также по созданию условий для развития школы технологий ИИ.
"Кодекс принят, и это первый шаг. По мере его применения целесообразно сформировать на уровне правительства, например, в аналитическом центре, межведомственную комиссию с участием заинтересованных федеральных органов государственной власти и организаций", – заключил Осадчук.
Во вторник, 26 октября, в рамках первого международного форума "Этика искусственного интеллекта: начало доверия" в Москве подписали первый в России Кодекс этики искусственного интеллекта. Кодекс станет частью федерального проекта "Искусственный интеллект" и стратегии развития информационного общества на 2017–2030 годы. Документ устанавливает общие этические принципы и стандарты поведения. Кодекс распространяется на отношения, связанные с этими особенностями создания (проектирование, конструирования, пилотирования) и использования технологий ИИ на всех этапах жизненного цикла, которые сейчас не урегулированы законодательством РФ или другими актами регулирования.