22.11.2025, автор Spik.kz.
Казахстанский закон об искусственном интеллекте: взгляд из-за границы
Сегодня, 13:38, автор Spik.kz.
RU
KZ
EN
Принятие в Казахстане закона об искусственном интеллекте знаменует начало нового этапа в формировании национальной когнитивной инфраструктуры в Казахстане. Мир движется к расслоению государств по степеням их способностей управлять моделями и данными. В таких условиях основой интеллектуального капитала становится закон, создающий рамки для суверенного развития AI-платформ. В нем должны быть учтены алгоритмы защиты данных и внедрения этических стандартов. В настоящее время эксперты отмечают, что Казахстан ещё только вступает в глобальную игру за когнитивный суверенитет, где ставки измеряются не ресурсами, а способностью создавать и управлять алгоритмическими архитектурами будущего.
Наша редакция обратилась к Монике Малик, ведущему инженеру по данным и ИИ одной из крупнейших компаний сектора в мире – AT&T. В своих комментариях специально для Spik.kz Моника подчеркнула, что казахстанский закон устанавливает чёткие роли и ответственность для владельцев, пользователей и операторов AI-систем, вводит запреты на манипулятивные и незаконные практики, а также формализует требования к маркировке синтетического контента. По её мнению, такие меры создают основу доверия, однако настоящая эффективность закона зависит от вторичных правил, реализации процедур аудита и прозрачного применения на практике.

В целом, как отмечают эксперты, в правовой сфере ИИ ключевую роль играет управление когнитивной инфраструктурой и локальными LLM. С этой точки зрения казахстанский закон об ИИ становится не просто нормативным актом, а инструментом стратегического позиционирования страны в глобальной архитектуре будущих интеллектуальных экосистем. По словам Малик, потенциал закона проявится только в сочетании с развитием человеческого капитала, инженерных компетенций и открытых институтов управления данными.
Она суммировала несколько ключевых наблюдений относительно принятого закона. Последний, по ее мнению, хорошо справляется с рядом задач – в частности, чётко распределяет роли между владельцами, держателями и пользователями, что критически важно для реальной юридической и операционной ответственности. Этические ограничения, включая конкретные запреты на манипулятивные или подсознательные методы и незаконную обработку персональных данных, а также принципы объяснимости и прозрачности создают прочную основу для доверия. Госпожа Малик также указала на обязательную маркировку ИИ-сгенерированного контента как практическую меру по борьбе с дипфейками и дезинформацией. Создание Национальной AI-платформы ею воспринято как критически важное для формирования суверенной среды разработки, обучения и пилотирования моделей. Кроме того, Малик отметила, что меры защиты данных, такие, как ужесточение условий согласия и права на отзыв, приводят использование ИИ в соответствие с существующими нормами конфиденциальности.
Говоря о вероятных последствиях, она отметила, что государственные и регулируемые сектора могут действовать быстрее при формализации требований к объяснимости и маркировке. Нейтральный и поддающийся аудиту доступ к Национальной AI-платформе может стать базой для локальных LLM, центров оценки безопасности и государственных сервисов. Однако при ограниченном доступе платформа рискует превратиться в узкое место. Поэтому Малик обратила внимание на «дивиденд доверия общества», подчеркнув, что чёткие запреты и маркировка будут эффективными только при прозрачности жалоб, возможности восстановления прав и быстрых санкций.
Она описала, как должно выглядеть «правильное» внедрение закона, предложив выпускать технические стандарты в течение 90 дней, создать независимый AI Safety/Eval Hub - центр оценки и тестирования ИИ-моделей с открытыми бенчмарками и red-team отчётами. Необходимо обеспечить переносимость наборов правил и инструментов, с помощью которых разные программы могут взаимодействовать друг с другом и производить депонирование критически важных моделей для государственных сервисов. Также, по ее мнению, существует потребность во внедрении и использовании пропорциональных мер соответствия, включая безопасные гавани для малых и средних предприятий сектора. Она подчеркнула необходимость комплексного стека для реагирования на дипфейки и приведения законодательства в соответствие с международными стандартами, такими, как NIST AI RMF и ISO 42001, отметив, что Казахстан целенаправленно выравнивает управление ИИ с международной практикой.
Рафаэль Балгин
Наша редакция обратилась к Монике Малик, ведущему инженеру по данным и ИИ одной из крупнейших компаний сектора в мире – AT&T. В своих комментариях специально для Spik.kz Моника подчеркнула, что казахстанский закон устанавливает чёткие роли и ответственность для владельцев, пользователей и операторов AI-систем, вводит запреты на манипулятивные и незаконные практики, а также формализует требования к маркировке синтетического контента. По её мнению, такие меры создают основу доверия, однако настоящая эффективность закона зависит от вторичных правил, реализации процедур аудита и прозрачного применения на практике.

В целом, как отмечают эксперты, в правовой сфере ИИ ключевую роль играет управление когнитивной инфраструктурой и локальными LLM. С этой точки зрения казахстанский закон об ИИ становится не просто нормативным актом, а инструментом стратегического позиционирования страны в глобальной архитектуре будущих интеллектуальных экосистем. По словам Малик, потенциал закона проявится только в сочетании с развитием человеческого капитала, инженерных компетенций и открытых институтов управления данными.
Она суммировала несколько ключевых наблюдений относительно принятого закона. Последний, по ее мнению, хорошо справляется с рядом задач – в частности, чётко распределяет роли между владельцами, держателями и пользователями, что критически важно для реальной юридической и операционной ответственности. Этические ограничения, включая конкретные запреты на манипулятивные или подсознательные методы и незаконную обработку персональных данных, а также принципы объяснимости и прозрачности создают прочную основу для доверия. Госпожа Малик также указала на обязательную маркировку ИИ-сгенерированного контента как практическую меру по борьбе с дипфейками и дезинформацией. Создание Национальной AI-платформы ею воспринято как критически важное для формирования суверенной среды разработки, обучения и пилотирования моделей. Кроме того, Малик отметила, что меры защиты данных, такие, как ужесточение условий согласия и права на отзыв, приводят использование ИИ в соответствие с существующими нормами конфиденциальности.
Вместе с тем, она обратила внимание на основные риски и потенциальные недостатки. Например, предупредила, что успех закона зависит от возможностей его применения в совокупности со вторичными нормативами, поскольку без надлежащих регламентов, аудитов и санкций его положения останутся на уровне деклараций. Широкий круг запретов на манипулятивные технологии может препятствовать внедрению безопасных UX- или вспомогательных функций и научным исследованиям. Масштабная маркировка дипфейков нуждается в чётко определённых процессах обнаружения, подтверждения происхождения и удаления, чтобы предотвратить обход требований. Распределение ответственности может быть обременительным для малых и средних компаний, а национальная платформа без правил интер-операбельности и переносимости может создать зависимость от внешних поставщиков. Кроме того, Моника подчеркнула необходимость обеспечения ясности в вопросах авторских прав и ИИ-сгенерированного контента во избежание судебных рисков.
Говоря о вероятных последствиях, она отметила, что государственные и регулируемые сектора могут действовать быстрее при формализации требований к объяснимости и маркировке. Нейтральный и поддающийся аудиту доступ к Национальной AI-платформе может стать базой для локальных LLM, центров оценки безопасности и государственных сервисов. Однако при ограниченном доступе платформа рискует превратиться в узкое место. Поэтому Малик обратила внимание на «дивиденд доверия общества», подчеркнув, что чёткие запреты и маркировка будут эффективными только при прозрачности жалоб, возможности восстановления прав и быстрых санкций.
Она описала, как должно выглядеть «правильное» внедрение закона, предложив выпускать технические стандарты в течение 90 дней, создать независимый AI Safety/Eval Hub - центр оценки и тестирования ИИ-моделей с открытыми бенчмарками и red-team отчётами. Необходимо обеспечить переносимость наборов правил и инструментов, с помощью которых разные программы могут взаимодействовать друг с другом и производить депонирование критически важных моделей для государственных сервисов. Также, по ее мнению, существует потребность во внедрении и использовании пропорциональных мер соответствия, включая безопасные гавани для малых и средних предприятий сектора. Она подчеркнула необходимость комплексного стека для реагирования на дипфейки и приведения законодательства в соответствие с международными стандартами, такими, как NIST AI RMF и ISO 42001, отметив, что Казахстан целенаправленно выравнивает управление ИИ с международной практикой.
Моника пришла к выводу, что закон представляет собой высокоинформативную рамку с реальным потенциалом, но его авторитет теперь зависит от строгих вторичных правил, нейтрального доступа к платформе и видимого применения. Она также отметила, что маркировка дипфейков необходима, но недостаточна без быстрой процедуры их удаления и подтверждения происхождения. По ее мнению, Национальная AI-платформа может стать как трамплином для локальных LLM, так и точкой отказа – это теперь находится в прямой зависимости от правил интер-операбельности. Настоящая же сложность заключается не в принятии закона, а в его реализации.
Рафаэль Балгин
Похожие статьи
Окно возможностей или бутылочное горлышко?
Вечный доход: есть ли будущее у эндаумента в Казахстане?
27.02.2025, автор Сауле Исабаева.
Кампания против Бишимбаева имела четкий сценарий – Ермухамет Ертысбаев
24.06.2024, автор Сауле Исабаева.
Палки в колеса: странные запретительные меры от КТЖ
25.02.2025, автор Гульнар Муканова.
Казахстанский AI Act и маска в придачу
4.12.2025, автор Spik.kz.