Не навреди: эксперты рассказали, что изменится после появления Кодекса этики искусственного интеллекта — mashamult.ru

новости

В России появился первый Кодекс этики искусственного интеллекта, который официально закрепляет то, что машины и компьютеры не должны работать в ущерб человеку. Эксперты отмечают, что появление документа, безусловно, – прорыв, однако носит он рекомендательный характер и решает далеко не все проблемы.

ИИ для человека

По распоряжению президента Владимира Путина над документом работали Министерство экономического развития РФ, Аналитический центр при российском правительстве и Альянс в сфере искусственного интеллекта. Таким образом, в разработке кодекса участвовало свыше 500 специалистов, которые проработали более 300 различных предложений и замечаний.

«Технологии искусственного интеллекта постепенно внедряются в самые разные сферы жизни, включая образование, здравоохранение, государственное управление. По данным ВЦИОМ, около 48 процентов россиян доверяют ИИ. Это достаточно высокая цифра. Но пока у части общества неоднозначное отношение к таким технологиям, и это то, над чем нам надо работать. Обществу нужен надёжный ИИ с вероятностью ошибки ниже, чем у человека. Права и свободы граждан гарантированы Конституцией, и наша обязанность – реализовать механизмы по их защите, независимо от среды, в которой находится человек. Кодекс этики искусственного интеллекта позволит повысить уровень доверия граждан к новым технологиям. Опираясь на лучшие практики, Россия входит в десятку стран, для которых этичность развития важнейшей технологии XXI века имеет государственное значение», – отметил заместитель председателя правительства РФ Дмитрий Чернышенко на форуме «Этика искусственного интеллекта: начало доверия», где представители индустрии подписали документ.

Главный тезис кодекса заключается в том, что разработчики ИИ должны руководствоваться гуманистическим подходом, то есть машины не должны работать в ущерб правам и интересам людей, дискриминировать или негативно влиять на их когнитивные способности, социализацию и нравственность. Создатели и пользователи ИИ должны соблюдать все меры безопасности при работе с данными, информировать пользователя, что он имеет дело именно с ИИ, и добровольно сертифицировать такие системы.

Кодекс ставит интересы развития ИИ выше конкуренции, то есть призывает разработчиков сотрудничать и совместно повышать компетенции. Кроме того, согласно кодексу, информация об ИИ должна быть прозрачной и доступной, чтобы и представители индустрии, и пользователи имели четкое представление об уровне развития технологии и сопряженных с этим рисках.

«Мир всё ближе к тому моменту, когда искусственный интеллект станет полноправным участником всех повседневных процессов. Уже сейчас Университет ИТМО работает над развитием сильного ИИ – он может брать на себя сложные творческие задачи, которые раньше способен был выполнять только человек. Для того, чтобы безопасно и эффективно применять такие технологии в будущем, нужно учесть и проработать этические ориентиры уже сегодня. Кодекс станет опорной точкой нового витка разработок и «подстрахует» человечество с учетом высокого темпа развития подобных технологий», – сообщила первый проректор ИТМО Дарья Козлова после подписания кодекса.

Помимо ИТМО, подписи поставили представители социальной сети «ВКонтакте», Сбербанка, сервиса ЦИАН, правления фонда «Сколково», а также компаний МТС, Mail.ru, «Газпромнефть» и многих других. Для этого впервые использовалась мобильная подпись «Госключ».

«Ожидаем, что до конца года кодекс подпишут более 100 организаций из государственного, коммерческого и научного секторов. Правительство приложит все необходимые организационные усилия, чтобы этические принципы ИИ нашли практическую реализацию в разных сферах: в госуправлении, здравоохранении, на транспорте, где благополучие людей в приоритете», – заверил Дмитрий Чернышенко.

Кодекс этики искусственного интеллекта – это не специфическая российская история, подобные документы уже приняты в более чем 30 странах, например, в США, Великобритании, Китае и Франции.

Только начало

Несмотря на то, что появление кодекса – определенно шаг вперед для всей индустрии, эксперты отмечают, что документ может решить далеко не все проблемы.

«Кодекс носит рекомендательный характер и не распространяется на военные разработки. Это значит, что документ не может ничего запрещать. Но он «напоминает» о принципах этики, направленных на защиту интересов и прав человека, и что все разработки ИИ должны создаваться и применяться в соответствии с положениями законодательства РФ. «Нарушая» рекомендации, кроме тех, что касаются соответствия закону, компании в худшем случае рискуют столкнуться с репутационными потерями», – отметил руководитель лаборатории «Машинное обучение» Университета ИТМО Андрей Фильченков.

Помимо этого, кодекс не регулирует относительно новую для индустрии проблему, связанную с интеллектуальной собственностью на то, что создал ИИ.

Президент Ассоциации IPChain Андрей Кричевский отметил, что сегодня значительная доля творческого контента создается с использованием ИИ и отсутствие четко прописанных правил о праве собственности создает трудности.

«В большинстве стран мира автором произведения может считаться только человек, физическое лицо. Фактически компания производит музыку машинным способом, а авторство приписывается некоей номинальной фигуре. Это создает серьезные риски, ведь такое фиктивное авторство легко может быть оспорено в суде – истец может доказать отсутствие творческого вклада», – сказал он.

Эксперт полагает, что проблемы можно избежать, если выдавать эксклюзивные авторские права не только физическим, но и юридическим лицам.

«Точно так же, как лейблы распоряжаются исключительными правами на фонограммы, компании, использующие ИИ, могли бы получить четкий набор прав на продукт, созданный при его участии», – считает Андрей Кричевский.

Показательным кейсом в этом вопросе может стать случай с австралийской нейросетью DABUS, которая получила-таки право на собственные разработки: новый тип контейнеров для пищевых продуктов и аварийную световую сигнализацию. Комитет по патентам Австралии изначально ответил DABUS отказом, однако Федеральный суд страны встал на сторону ИИ. Как напомнил судья, в законодательстве прописано, что получателем патента может быть «агент», при этом правила не оговаривают, что это обязательно живой человек, а не компания.

Аналитик финансовой группы «Финам» Леонид Делицын отметил, что закон о патентах появится тогда, когда востребованность и стоимость продуктов, созданных с помощью ИИ, достигнут существенных показателей.

«Когда появляются новые технологии, то государство не сразу стремится их зарегламентировать. Например, Интернет долго вообще никто не контролировал, однако с увеличением его охвата, когда люди начали зарабатывать там большие деньги, появилось множество ограничений. В связи с этим я думаю, что пока не появится какой-то яркий прецедент, вопрос об эксклюзивных правах на продукты, созданные ИИ, законодателей серьезно не заинтересует. Например, если компания «Яндекс» с помощью ИИ создаст какие-нибудь декоративные элементы, которые будут востребованы среди дизайнеров и начнут приносить большие деньги, то разработчик, полагаю, очень захочет все это запатентовать. Я думаю появление отдельного закона – вопрос ближайших двух-трех лет», – сказал он.

Источник: spbdnevnik.ru

Добавить комментарий