Казахстанский AI Act и маска в придачу

Автор Spik.kz
RU
KZ
EN
Маска как предупредительный знак в эпоху ИИ
Ван Лейвенстейн создал почти философский парадокс: маска прозрачная, лицо видно, человек как человек, но вот машины видеть его категорически отказываются. Алгоритмы, привыкшие уверенно щупать наши лица своими векторными щупальцами, внезапно теряют «опорные точки» и начинают вести себя как студент-первокурсник, у которого забрали шпаргалку. Для прохожего владелец маски выглядит нормально, но для нейросети как квантовый шум с намёком на бунт. Неудивительно, что изделие молниеносно разлетелось по техфорумам, где люди давно мечтают не только скрывать личность, но и слегка раздражать машины. Хотя бы эстетично.
Однако в Казахстане такая маска в контексте принятия закона об ИИ может стать не просто трендом, а почти политическим аксессуаром – чем-то вроде элегантного зонта от алгоритмического дождя. Это закон не про «развитие технологий», а про большое национальное обновление: в рамках последнего должен быть реализован переход от ручных процессов к системам, которые смотрят, думают и делают выводы быстрее, чем гражданин успевает понять, что вообще произошло. Тревога части общества вполне объяснима: если государство делегирует наблюдение алгоритмам, то кто будет следить за тем, чтобы алгоритмы не увлеклись?
На этом фоне маска Лейвенстейна перестаёт быть дизайнерской игривостью и превращается в символ того маленького человеческого угла свободы, который ещё можно удерживать голыми руками. Она напоминает, что цифровой надзор – не сюжет из антиутопии и не страшилка для тех, кто не обновил айфон, а уже работающая реальность. И вопрос тут не в том, «против кого» направлены алгоритмы сейчас, а кто будет рассказывать алгоритмам, что им можно, а что нельзя, когда они станут основными действующими лицами.
Именно поэтому обсуждение всего спектра новых технологий от масок, к которым нейросети испытывают когнитивную тоску, до законов, которыми пытаются легитимировать ИИ-администрирование, становится жизненно необходимым. В мире, где автоматический контроль превращается в настройку по умолчанию, разговор о правах, границах и человеческом присутствии перестаёт быть культурным излишеством. Это уже не роскошь, а инструкция по выживанию в будущем, которое наступило, пока мы отвлеклись на уведомление.
Анализ закона, или кто мы такие, чтобы сомневаться?
Закон об ИИ в Казахстане, конечно, появился вовремя, ведь, технологии уже везде – в сфере оказания госуслуг, медицине, образовании, творчестве, транспорте, информационных дискурсах… И государство решило, что пора бы навести порядок, пока ИИ не превратился в очередного «самостийного акима» или, более того, в «партию» с политическими амбициями. Но вместо того, чтобы строить прозрачные механизмы, у нас в Казахстане почему-то выбран классический метод – с расширением полномочий через «национальную платформу». Вероятно, в надежде на то, что народ решит, будто всё под контролем.
И правда, звучит тепло и красиво с принципами этики, прозрачности, объяснимости, с маркировкой ИИ-продуктов и заботой. Словно государство вдруг решило, что гражданин – не объект для наблюдения, а что-то вроде клиента. Закон обещает, что ИИ будет использоваться только для благих целей. Ведь сильные стороны описаны шикарно. В них и технологический суверенитет, и доверие общества, и защита прав. Авторы текста явно вдохновлялись презентациями из Силиконовой долины, где каждую проблему решают словами «инновация» и «этика» - причем желательно в одном абзаце.
Но весёлое начинается тогда, когда становится ясно, что половина положений закона – лишь прекрасные лозунги без механизмов. Кто проверяет маркировку? Как выглядит «объяснимость»? Что считается манипуляцией? Сколько сотрудников у этих регуляторов, и умеют ли они отличать алгоритм от антивируса 2007 года? Ответа нет – но звучит солидно.
Есть и риски. Крыться они могут в удушении инноваций и расширении государственного контроля. Формулировки типа «манипулятивные методы» так широки, что под них можно подогнать что угодно. От дипфейков до обычного таргета в соцсетях. И да, закон создаёт прекрасную иллюзию безопасности: если написано «защищает» - значит, защищает. Зачем думать о приватности, если за тебя подумает алгоритм под присмотром государства?!
Закон выглядит как попытка совместить инновации и контроль, где последний пока заметно выигрывает. Идеи, заложенные в закон, создают впечатление, что ИИ в Казахстане должен быть одновременно двигателем прогресса и новым сторожевым псом. Что ж, эпоха диктует свои правила: кто владеет алгоритмами, тот владеет наблюдением. А закон – пока что попытка сказать, что всё это делается исключительно ради людей. И кто мы такие, чтобы сомневаться?
Красная кнопка «для солидности»
Казахстанский закон об ИИ выглядит как работа старательного студента, который выучил заголовки европейских документов, но содержание переписать не успел. Слышали где-то про маркировку ИИ, запрет манипуляций, прозрачность – значит, срочно добавляем в закон, чтобы звучало серьёзно. У EU ведь всё это есть! Там, правда, ещё с 2021 года существует сложная, риск-ориентированная архитектура с уровнями опасности, процедурами, аудитами и ответственностями. В Казахстане же получилось нечто вроде «AI Act Lite» – тот же дизайн, только без инструкции и половины деталей.
И всё-таки закон красив: он разрешает строго сказать «ай-ай-ай» манипулятивным методам и незаконной обработке данных. И даже вводит маркировку почти как предупреждающий знак на дороге. Формально, закон – это рубеж безопасности. Фактически же – эффектная красная пластмассовая кнопка у выхода из супермаркета: нажать можно, но толку непонятно сколько. Чтобы эта кнопка действительно останавливала злоупотребления ИИ, нужны скучные вещи – аудит, независимый надзор, техническая экспертиза. Но где их взять и кто возьмётся – вопрос открытый, а закон в своей элегантной беглости предпочёл это не уточнять.
Логичный вопрос: не станет ли закон универсальным инструментом давления? Да, конечно, станет и даже раньше, чем это кто-то официально признает. Любой регулятор – это всегда и бронежилет, и лезвие. Национальная платформа ИИ звучит суверенно, но подразумевает контроль над данными и моделями. А кто управляет платформой, тот и диктует правила игры для стартапов и корпораций. Вход в ИИ-рынок будет по пропуску: требования, расходы, проверки. Мелким игрокам придётся или маскироваться, или демонстрировать образцовую «этичность». Иначе сдвига не будет. Под лозунгами защиты и морали государство находит удобное объяснение для мониторинга, фильтрации и корректировки информационных потоков. Институциональные сдержки гибкие? Ну, значит, и подстройка под нужные цели тоже будет гибкой.
В результате страна получает эффектный юридический билборд. Всё красиво, современно, с собственной «национальной платформой» – хоть на форум ООН вешай. На бумаге звучит как технологический поворот, в видеороликах смотрится прекрасно, а на практике «красная кнопка» работает в обе стороны. Нажал раз – вроде как безопасность. Нажал другой раз – уже централизация, ограничение доступа и вполне прогнозируемые злоупотребления.
И самая пикантная деталь: универсальная оговорка о «приоритете национальной безопасности» всё равно стоит над любыми принципами этики, прозрачности и свободы выбора. Это такая прекрасная юридическая волшебная палочка: ею можно отменить всё остальное, не выходя за рамки закона. Получается витраж из благородных слов, в котором всегда открыт аккуратный чёрный ход на случай, если понадобится выйти в обход собственного же правового фасада.
Рафаэль Балгин