Казахстан сделал важный шаг в области антропоцентричного искусственного интеллекта, приняв новый закон об ИИ, который вступил в силу 18 января. Законодательство устанавливает правовую базу, которая приоритизирует интересы людей, их права, свободы и благополучие, одновременно регулируя разработку и использование ИИ.
Основные принципы закона включают справедливость, прозрачность, подотчетность и защиту данных. Граждане имеют право знать, для чего используется автоматизированная обработка и какие могут быть последствия, а также как себя защитить.
ИИ-системы классифицируются и ранжируются по уровню риска и уровню способности к автономному принятию решений; это означает, что ИИ-системы, признанные «высокорисковыми», будут иметь наивысший уровень безопасности информационных систем, аналогичный системам государственных организаций.
Помимо определения индивидуальных обязанностей владельцев, операторов и пользователей ИИ-систем в течение жизненного цикла ИИ-решения, данное законодательство специально запрещает использование ИИ-систем, которые манипулируют поведением человека, дискриминируют людей, эксплуатируют уязвимость человека, определяют эмоции без согласия человека, нарушают законы о защите данных или генерируют запрещенный контент.
Казахстан не единственный, поскольку многие другие страны продвигают законы, защищающие пользователей от дипфейков и другого вредоносного контента. Например, Китай недавно объявил о новых правилах, которые ограничивают ИИ-чатботы, подталкивающие пользователей к суицидальным настроениям, самоповреждению и азартным играм, в целях защиты пользователей, особенно несовершеннолетних.
Для Казахстана данное законодательство требует прозрачности ИИ-систем и обязывает четко обозначать весь синтетический контент соответствующими метками. Этот закон предусматривает, что произведения, созданные с человеческим творчеством, подлежат авторскому праву, в то время как обучение ИИ на материалах, защищенных авторским правом, допустимо, если это прямо не запрещено правообладателем.
Министерство искусственного интеллекта и цифрового развития рекомендует разрабатывать ИИ в соответствии с правилами защиты персональных данных, правилами информационной безопасности, стандартами энергоэффективности и снижения воздействия на окружающую среду.
Главная цель Министерства — предоставить людям безопасные, ответственные и ориентированные на человека технологии ИИ, продолжая при этом способствовать инновациям новых технологий.
Согласно The Asana Times, запуск первой группы AI Governance 500, стратегической программы, направленной на обучение руководителей внедрению и расширению использования ИИ в государственных организациях, состоялся 19 января.
Программу представил Жаслан Мадиев, который занимает должность заместителя премьер-министра, а также министра искусственного интеллекта и цифрового развития.
Участие принимают около 100 руководителей из государственного и квазигосударственного секторов, охватывая стратегическое понимание ИИ и разработку прикладных проектов для регионального и ведомственного внедрения.
В настоящее время страна находится на начальной стадии проведения оценки под руководством ЮНЕСКО для определения общей готовности страны в области искусственного интеллекта. Используя методологию оценки готовности ЮНЕСКО (RAM), оценка рассмотрит все аспекты экосистемы ИИ страны, включая правовые, социальные, экономические, научные, образовательные и технологические аспекты.
Кроме того, будет создана Национальная команда заинтересованных сторон, состоящая из представителей различных министерств, университетов, частных компаний, гражданского общества и международных партнеров.
«Будут разработаны практические рекомендации для поддержки антропоцентричной экосистемы ИИ», — отметило Министерство иностранных дел. Этот проект подчеркивает приверженность Казахстана международному сотрудничеству, правам человека и универсальным ценностям в своей стратегии ИИ.
Если вы читаете это, вы уже впереди. Оставайтесь с нами, подписавшись на нашу рассылку.


