Этика искусственного интеллекта: о чем договорились крупнейшие игроки рынка. Обзор

Москва. 26 октября. INTERFAX.RU - Представители бизнеса и органов власти сегодня обсудили этические аспекты внедрения искусственного интеллекта в ходе международного форума "Этика искусственного интеллекта: начало доверия". В ходе мероприятия также был представлен Национальный кодекс этики искусственного интеллекта (ИИ), разработанный по поручению президента Владимира Путина. Меморандум о присоединении к кодексу подписали первые 20 компаний, фондов и образовательных учреждений, в том числе крупнейшие игроки рынка: Яндекс, Сбер, Mail.ru Group, МТС и Ростелеком.

Не навреди

Основными принципами кодекса стали человеко-ориентированный и гуманистический подход при использовании искусственного интеллекта, риск-ориентированный подход, принцип предосторожности и ответственное отношение акторов к вопросам влияния систем искусственного интеллекта на общество и граждан. Кодекс также регламентирует, в частности, недопущение дискриминации со стороны искусственного интеллекта, непричинение вреда, безопасность работы с данными. Принципы кодекса будут распространяться на отношения, связанные с этическими аспектами, внедрения и использования технологий ИИ, которые специально не урегулированы законодательством и/или актами технического регулирования. Предполагается, что кодекс станет рамочным элементом саморегулирования для разработчиков технологий ИИ, вокруг которого возникнет система отраслевых кодексов.

В числе подписантов также оказались Национальный исследовательский университет "Высшая школа экономики", группа компаний Infowatch, Сколковский институт науки и технологий, Московский физико-технический институт, ЦИАН, ПАО "МТС", университет "Иннополис", Российский фонд прямых инвестиций, ПАО "Сбербанк", университет ИТМО, Mail.ru Group (недавно компания объявила о смене названия на VK), институт системного программирования им. В.П. Иванникова Российской академии наук, ПАО "Газпромнефть", госкорпорация "Росатом". Также свое присоединение к кодексу декларировали университет "Сириус", университет МГИМО, фонд "Сколково". Примечательно, что сама церемония подписания прошла с помощью сервиса электронной подписи "Госключ", разработанного Минцифры – таким образом меморандум стал первым соглашением, заверенным "Госключом".

До конца года к Кодексу должны присоединиться не менее 100 компаний, пообещал вице-премьер Дмитрий Чернышенко.

Доверие всему голова

Слово "доверие", вынесенное в заглавие форума, неоднократно звучало и в выступлениях участников. В России население гораздо больше склонно доверять искусственному интеллекту, чем в других странах, отметил Чернышенко. Так, согласно июньскому опросу ВЦИОМ, 48% россиян заявили о доверии к ИИ, тогда как 72% граждан США, Германии, Австралии, Канады и Великобритании относятся к технологии с недоверием.

Четко прописанные и прозрачные этические нормы развития ИИ в правительстве рассматривают в первую очередь как механизм повышения доверия населения к технологии.

"Нужно работать над тем, чтобы у общества были совершенно конкретные поводы быть уверенным в том, что государство его защищает, и мы должны делать это, развивая государственное и общественное регулирование искусственного интеллекта", - отметил Чернышенко.

По словам начальника Управления президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяны Матвеевой, для роста доверия общества к ИИ необходимо вести "достаточно широкие и открытые дискуссии с обществом, с экспертным сообществом, с научным сообществом". Нужно в том числе привлекать и институты, которые касаются когнитивного развития человека, чтобы понимать, как ИИ будет влиять на человека по мере повсеместного развития технологии, заявила Матвеева.

Заинтересованность высших органов власти в развитии ИИ понятна – технология рассматривается как мультипликатор, способный в несколько раз повысить эффективность различных отраслей экономики и социальной сферы. Так, по словам Чернышенко, при разработке Стратегии социально-экономического развития России до 2030 года ("Фронтальной стратегии"), эксперты оценили, что эффективность цифровой трансформации всех отраслей при применении ИИ повышалась в 6-7 раз. "Такая игра стоит свеч", - подчеркнул вице-премьер.

Бизнес, зарегулируй себя сам

Представители бизнеса отмечали в первую очередь практическую пользу этического регулирования. По словам первого заместителя председателя правления Сбера Александра Ведяхина, несоблюдение этических принципов может иметь экономические последствия для бизнеса – падение стоимости компании, отток клиентов, потеря устойчивости бизнеса. Присоединение к этическому кодексу "показывает, что компания настроена в пользу своих клиентов, а значит и в пользу своих акционеров, а значит и на повышение долгосрочной стоимости своей компании", - заявил он.

По мнению президента, председателя правления ПАО "МТС" Вячеслава Николаева, кодекс – "это инстинкт самосохранения бизнеса". Если бизнес будет вести себя безответственно, общество само его ограничит с помощью регулирования, при этом такое регулирование будет гораздо более жестким, полагает Николаев.

"С точки зрения компаний очень важно, с одной стороны, ограничивать себя самим, чтобы мы имели возможность эту технологию развивать безопасно для людей, а с другой стороны, именно собравшись вместе мы можем, используя все те инструменты, которые в кодексе есть <...> совместно быстрее обнаруживать угрозы, быстрее понимать, что можно, а что нельзя", - подчеркнул он.

Рискни под контролем

Участники форума много говорили и о потенциальных рисках и угрозах, которые несет бесконтрольное внедрение ИИ.
По словам Чернышенко, быстрая масштабируемость систем ИИ повышает риск этических ошибок при разработке алгоритмов. Поэтому главным требованием должна быть полная безопасность систем ИИ для человека. Они также должны полностью исключать вероятность ошибок в критически важных с точки зрения безопасности сферах – там, где к трагедии может приводить "человеческий фактор".

"Вероятность ошибки должна быть не просто ниже, чем у человека, а должна практически стремиться к нулю", - подчеркнул Чернышенко.

По мнению президента группы компаний InfoWatch Натальи Касперской, помимо риска ошибок, проблемами при массовом внедрении ИИ могут стать манипулирование и вмешательство в частную жизнь, а также "массовое оглупление" или снижение интеллектуальных способностей.

"Через какое-то время мы будем иметь поколение пилотов, которые в принципе не смогут сажать [самолеты] на ручном управлении, и при выводе автоматики из строя они уже будут неспособны к этому. Я уж не говорю о том, что медики могут отучаться ставить диагнозы, потому что они просто теряют эту квалификацию. Это важные вопросы, которые нам как человечеству предстоит каким-то образом решить", - отметила Касперская.

По ее словам, кодекс этики по сути, является моделью угроз, в котором часть угроз попытались оценить и предотвратить. "В частности, там есть запрет на финальность решений искусственного интеллекта. Ответственность за принятие решений должна оставаться за человеком, есть обязательность уведомления человека, что в данный момент с ним общается система искусственного интеллекта <...>, там же отсутствие дискриминации, непричинение вреда явно заявлено, безопасность, конфиденциальность – вот это все включено", - рассказала Касперская.

Этика и регулирование

Приветствуя инициативы бизнеса по этическому саморегулированию, государство пока предпочитает весьма осторожно высказываться о перспективах законодательного регулирования в этой сфере. Так, Дмитрий Чернышенко туманно упомянул о том, что положения кодекса могут стать обязательными для органов власти (а активное внедрение технологий ИИ в госуправление предусмотрено ведомственными и региональными программами цифровой трансформации, которые курирует вице-премьер). А директор департамента стратегического развития и инноваций Минэкономразвития Рустам Тихонов (ведомство курирует федеральный проект "Искусственный интеллект") проводил параллели между кодексом и экспериментальными правовыми режимами (так называемыми "цифровыми песочницами"), в рамках которых будут развиваться кейсы беспилотного такси и беспилотных грузовых дронов.

"Мы движемся по пути, когда мы даем возможность практически оценить технологические риски, которые возникают при использовании технологий – это и персданные и иные риски - и потом, исходя уже из той палитры практического опыта, который мы получили, предложить регулирование", - пояснил он.

По словам вице-президента по взаимодействию с органами государственной власти ПАО "МТС" Руслана Ибрагимова, целевая модель регулирования ИИ должна стоять на "трех китах" – это технические стандарты, правовые нормы и этика.

"То, что мы первым делом принимаем кодекс этики – совершенно разумно, потому что право – это про риски, технические стандарты – про надежность, а вот этика охватывает все и является базой", - подчеркнул Ибрагимов.

Сам кодекс тоже должен являться гибким механизмом, считают его разработчики – поэтому при необходимости его положения могут пересматриваться.

"Жизнь развивается очень динамично, активно. Те позиции положения кодекса, которые сейчас закреплены непосредственно в документе, они должны пересматриваться в соответствии с новыми вызовами, которые будут вставать в рамках развития новых технологий, которые мы может быть сейчас не видим", - заявила Татьяна Матвеева.

Новости

Хроники событий
Военная операция на УкраинеВоенная операция на Украине5586 материалов
80-летие Победы в Великой Отечественной войне80-летие Победы в Великой Отечественной войне10 материалов
Обострение палестино-израильского конфликтаОбострение палестино-израильского конфликта2065 материалов
Смена власти в СирииСмена власти в Сирии121 материалов
Ставка ЦБ РФСтавка ЦБ РФ25 материалов
window.yaContextCb.push( function () { Ya.adfoxCode.createAdaptive({ ownerId: 173858, containerId: 'adfox_151179074300466320', params: { p1: 'csljp', p2: 'hjrx', puid1: '', puid2: '', puid3: '' } }, ['tablet', 'phone'], { tabletWidth: 1023, phoneWidth: 639, isAutoReloads: false }); setTimeout(function() { if (document.querySelector('[id="adfox_151179074300466320"] [id^="adfox_"]')) { // console.log("вложенные баннеры"); document.querySelector("#adfox_151179074300466320").style.display = "none"; } }, 1000); });