Шаг в будущее с ИИ: примем закон вовремя или снова будем резать по живому? - Караван
  • $ 498.34
  • 519.72
-3 °C
Алматы
2024 Год
23 Ноября
  • A
  • A
  • A
  • A
  • A
  • A
Шаг в будущее с ИИ: примем закон вовремя или снова будем резать по живому?

Шаг в будущее с ИИ: примем закон вовремя или снова будем резать по живому?

На форуме по управлению Интернетом Qazaqstan IGF 2024 представители МЦРИАП и депутаты рассказали, как планируют регулировать искусственный интеллект.

  • 18 Октября
  • 4616
Фото - Caravan.kz

Казахстан решил узаконить использование ИИ, выбрав путь мягкого регулирования. И этот подход уже вызвал массу споров и вопросов.

Мягкое регулирование ИИ: не станет ли жёстко потом?

Что такое мягкое регулирование? Это когда государство старается не вмешиваться, уходит в тень, а бизнесу предлагает разбираться самостоятельно. Звучит красиво: гибкость и минимум ограничений. Но на практике это больше похоже на «делайте что хотите, а там посмотрим».

Проблема в том, что если нет четких правил, то и с ответственностью возникает путаница. Кто будет виноват, если ИИ допустит ошибку в диагнозе? А если чат-бот сломается и что-то напутает, кому предъявлять претензии? Ответа нет. А значит, мягкое регулирование — дело очень рискованное и противоречивое.

Для сравнения: в Калифорнии только за сентябрь приняли несколько законов, касающихся ИИ. Новые нормы обязывают компании, которые вкладывают более 100 миллионов долларов в разработку ИИ (например, GPT-5), проводить тесты на безопасность. И если что-то пойдет не так, как задумано, разработчики будут нести ответственность за любой инцидент, который приведет к массовым смертям или ущербу более чем на 500 миллионов долларов.

Когда всё держится на НИТ: одна платформа — миллионы вопросов

У нас же в новом Цифровом кодексе даже нет раздела про искусственный интеллект.

«По законопроекту есть понятие библиотеки данных, Министерство четко обозначило, что ответственность за предоставление и качество данных несут владельцы и администраторы системы. Государственные органы формируют инфраструктуру, а обеспечение качества данных — забота тех, кто их собирает и использует. По поручению главы государства будет создана Национальная платформа искусственного интеллекта, оператором которой станет АО «НИТ». Но есть вопрос по данным, которые являются топливом для искусственного интеллекта. Важно, чтобы они были обезличенными. В Казахстане ответственность за обезличивание данных будет возложена на собственников или владельцев систем на базе ИИ.  Они обязаны обезличить данные перед передачей АО «НИТ». В случае, если это сделать невозможно, данные передаются НИТ, который выполнит обезличивание самостоятельно. На платформе будут использоваться только такие персональные данные», — сообщил руководитель управления государственной политики Комитета по искусственному интеллекту и развития инноваций МЦРИАП РК Ерлан Смаилов.

Звучит красиво, но вызывает целый ряд вопросов: что делать, если обезличивание проведут некачественно? Персональные данные утекут — кто ответит? НИТ? Владельцы? Никто? А если НИТ в один день даст сбой, ведь вся система построена вокруг одной платформы?  

Еще одна проблема — противоречия в работе с данными. Для борьбы с коррупцией важно открывать ключевую информацию, например, данные об учредителях компаний или судебные решения. В то же время говорят, что такую информацию нужно обезличивать. Хорошо, но как тогда понять, кто кому родственник или какие интересы лоббируются в суде? Государство словно не может определиться: открывать данные или закрывать? Или проще вообще ничего не делать?

Проспали майнинг, теперь боимся наломать дров с ИИ

Самое печальное, что в Казахстане до сих пор нет даже юридического определения искусственного интеллекта. Депутаты Мажилиса вроде бы работают над законом «Об искусственном интеллекте», но пока они размышляют, технологии мчатся вперед. Пока мы обсуждаем, как правильно внедрять чат-ботов, в мире решают совсем другие задачи — контроль над военными ИИ и предотвращение глобальных угроз. Однажды мы уже опоздали, когда беспечно проспали майнинг криптовалют, и теперь расхлёбываем последствия.

Впрочем, депутат Мажилиса Екатерина Смышляева считает, что спешить не стоит, потому как чрезмерная скорость может навредить.

— В 2018 году майнеры пришли в Казахстан и спросили: «Какие у вас правила?» Мы ответили: «Да нет правил, в принципе». Тогда они уточнили: «Где нам поставить своё оборудование?» И мы, не задумываясь, сказали: «Да ставьте, где хотите, закона ведь нет». Они расставили оборудование, вложили огромные деньги, а это, между прочим, капиталоёмкая отрасль. А потом, в 2020-м, когда политическая ситуация изменилась, мы вдруг очнулись и стали искать виноватых. «Так, ребята, теперь мы вас регулируем!». Но машины-то уже стояли. Мы начали резать по живому, и всё это стало примером того, как плохо работает догоняющее регулирование. Проблема в том, что инвесторы заходят с ожиданием стабильности, а через пару лет юрисдикция меняет правила игры. Сейчас с искусственным интеллектом мы, похоже, снова рискуем наступить на те же грабли. Мы категорически против того, чтобы вписывать ИИ в цифровой кодекс. Это не просто, образно говоря, раздавить гусеницу — мы можем спалить всю экосистему, и тогда никакая бабочка уже не вылупится. Большинство стран предпочитают не душить ИИ законами и ограничиваются этическими кодексами или саморегулируемыми механизмами, чтобы не навредить развитию. Но и инвесторы уже стоят у дверей и спрашивают: «Покажите, какие у вас планы, что вы собираетесь делать с ИИ?» Им нужна определённость, иначе никто не станет вкладываться.

Сначала стандарты, потом эксперименты

В кулуарах Екатерина Смышляева рассказала свое видение регулирования ИИ.

— Мы выбрали осторожный подход — не спешим с жесткими мерами. Это связано с тем, что жесткое регулирование может затормозить развитие технологий. Посмотрите на Европу с их GDPR: с одной стороны, они защищают персональные данные, но с другой – ограничивают цифровое развитие. Мы перенесли наилучшие практики в наше законодательство, но те, что мешают развитию, исключили. На уровне международного права пока нет жестких обязательств, которые бы подписали все страны. Рынки идут разными путями: кто-то внедряет этические кодексы, кто-то — системы саморегулирования. У нас, например, подход через систему государственных стандартов. Мы закладываем равный доступ к данным, маркировку продуктов и контроль за ИИ-системами, влияющими на здоровье и безопасность.

— Если ИИ будет использоваться, например, в медицине, кто будет отвечать за ошибки?

— Мы настаиваем, чтобы в критически важных областях, таких как медицина, последнее слово всегда оставалось за человеком. Алгоритмы ИИ помогают, но не могут принимать решения самостоятельно. Этот принцип заложен в кодексе: ИИ — это лишь инструмент, а ответственность остается за специалистами. В вопросах жизни и здоровья мы применяем жесткое регулирование. Здесь действуют строгие нормы закона. Но если технология не затрагивает критически важные процессы, то рынок может экспериментировать.

— Цифровой кодекс примут до конца этого года?

— Мы надеемся успеть в текущей сессии, которая длится до следующего сентября. Возможно, закон удастся принять раньше — до лета. Спрос на такие нормы уже велик: и от граждан, и от бизнеса, и от правоохранительных органов, особенно в вопросах борьбы с фейками…

Депутат также рассказала, что буквально на днях снова будут обсуждать Цифровой кодекс. При этом отметила, что он станет основой для регулирования цифровых процессов в стране, но не заменит все существующие законы. И, конечно, все изменения в законопроект будут вноситься с осторожностью. 

Но пока мы осторожничаем и гадаем, как бы не перегнуть палку, технологии не ждут. Вопрос один: успеем ли мы сделать шаг вовремя, или снова придётся резать по живому, как это уже было с майнингом?