Сенаторы обсуждали, как регулировать искусственный интеллект, который «воспроизводит повесточку» и может нести угрозу нацбезопасности Сенаторы обсуждали, как регулировать искусственный интеллект, который «воспроизводит повесточку» и может нести угрозу нацбезопасности Фото: council.gov.ru

Что опаснее — ядерная война или ошибка в определении пола трансгендера?

21 мая Европейский союз окончательно согласовал первый закон, регулирующий использование искусственного интеллекта. Аналогичная работа идет во многих странах. Так, в КНР приняты временные меры по управлению генеративными системами ИИ, перекладывающие ответственность за результаты генерации на разработчиков. В США президент Джо Байден указом обязал разработчиков делиться с правительством данными о результатах тестирования безопасности и другой критически важной информацией до релиза проектов. В России госполитика в сфере ИИ находится в зачаточном состоянии: есть соответствующий нацпроект, разрабатывается цифровой кодекс, в Госдуме начали разработку закона о маркировке контента, созданного с помощью ИИ. А накануне законодательное регулирование технологии обсудили на заседании комитета Совета Федерации по информационной политике и взаимодействию со СМИ.

Идей немало — от введения на «Госуслугах» опции разговора с живым специалистом, а не с роботом Максом, до законопроекта, который обяжет получать согласие на синтезирование контента на основе голоса конкретного гражданина. «Мы хотим понять социальные последствия применения искусственного интеллекта, — взял слово председатель комиссии СФ по информационной политике и взаимодействию со СМИ Алексей Пушков. — На днях пресса цитировала мое заявление о том, что мы собираемся законодательно регулировать ИИ. Мы не собираемся этого делать. Регулировать его обязаны создатели и разработчики. Но законодатели, на мой взгляд, должны регулировать использование ИИ. Это совсем другая история, потому что искусственный интеллект — это в конечном счете технология, и здесь вмешиваться в технологические процессы мы не можем, это не наша работа, а вот посмотреть, какие могут быть последствия его применения, обязаны».

Алексей Пушков: «Законодатели, на мой взгляд, должны регулировать применение, использование ИИ» Алексей Пушков: «Законодатели, на мой взгляд, должны регулировать использование ИИ» Фото: council.gov.ru

По словам Пушкова, выделяются три вектора: информационно-идеологический, правозащитный и предотвращение злоупотреблений. Например, российских законодателей волнует искажение информации с помощью ИИ, ведь борьба за защиту исторической правды зафиксирована даже в Конституции РФ. И вести ее все сложнее. Сенатор указал на генеративную модель Google Gemini 1.5, которая начала рисовать исторических деятелей, основываясь на «новых нормах». В результате Людовик XIV оказался темнокожим, а отцы-основатели США превратились в представителей негроидной и монголоидной рас. «Ни одного белого среди тех, кого он изобразил под фамилиями Вашингтон, Джефферсон и так далее, там нет. Казалось бы, казус, а на самом деле — воспроизведение политической повестки через механизмы ИИ. Это настолько абсурдно, что даже весьма либеральный Google решил внести коррективы», — заключил он.

«Тому же Gemini 1.5 было предложено определить, что более опасно для человечества — ядерная война или ошибка в определении пола 72-летнего американского трансгендера Кейтлин Дженнер <…>, который раньше был Брюсом Дженнером, потом решил сменить пол <…>, но до этого, правда, произвел на свет двух сестер Дженнер, которые являются вместе с Ким Кардашьян ведущими фигурами мировой блогосферы, — продолжил Пушков. — ИИ поставил на первое место ошибку в определении пола вот этого 70-летнего транса! Почему? Потому что ядерная война — это абстракция, а о трансгендерах постоянно толкуют средства массовой информации. То есть искусственный интеллект фактически реагирует на общественный запрос».

По мнению Пушкова, ИИ «ввел общество в некоторое состояние эйфории», которое нужно скорректировать на законодательном уровне. Для этого предстоит определить сферы вмешательства — совместно с правоохранителями и правозащитниками, еще не успевшими стать иностранными агентами.

По мнению Ашманова цифровизация, проходящая в России, стала «совершенно безумной» По мнению Ашманова, цифровизация, проходящая в России, стала «совершенно безумной» Фото: council.gov.ru

Все мы под постоянным наблюдением

Развитие ИИ связано с темой соблюдения прав человека. Пушков напомнил, что, к примеру, в Великобритании на 65 млн жителей 20 млн видеокамер. На прошлой неделе замглавы минцифры РФ Дмитрий Угнивенко сообщил о разработке единой системы видеонаблюдения, которая позволит собирать видеопотоки со всех регионов РФ. Министр Максут Шадаев говорил, что в стране более 1 млн камер видеонаблюдения, и каждая третья используется в системе распознавания лиц. «То есть за вами постоянно наблюдают, распознают, вы предмет наблюдения, — констатировал Пушков. — А наблюдатели никем не избраны и не уполномочены. Понятно, что есть и структуры исполнительной власти, но они действуют в рамках закона или в силу политической целесообразности?»

С сенатором согласился президент компании «Крибрум», член совета при президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов. По его мнению, цифровизация в России стала «совершенно безумной». Он напомнил об инициативе правительства Московской области разрешить использование систем распознавания лиц для автоматического штрафования граждан за переход дороги в неположенном месте. «Это грубое нарушение многих законов, в том числе закона о биометрической системе и №152-ФЗ, — возмутился Ашманов. — Тем не менее власти Московской области считают, что они придумали хорошую вещь, ведь будут наказывать за нарушение. Ну и деньги собирать заодно». Он призвал присмотреться к европейским нормам регулирования.

На данный момент, согласно разным данным, в России происходит от 5 до 15 млн мошеннических звонков в день В настоящее время, согласно разным данным, в России происходит от 5 млн до 15 млн мошеннических звонков в день Фото: Алексей Белкин

Кто помогает врагу

По словам Ашманова, бизнес не зря истерически сопротивляется попыткам такого регулирования — он «не хочет лишиться своей цифровой власти и доходов от использования персональных данных граждан». Ежедневно совершается 5–15 млн мошеннических звонков. Работа таких контакт-центров стала не просто обыденностью, но государственной индустрией Украины, при этом часто задействуется ИИ. «Через некоторое время ИИ будет совершать не 500 звонков в день, а 50 тысяч или 500 тысяч, — предупредил Ашманов. — И самое главное, он будет обладать абсолютно гипнотическим воздействием, быстро реагировать на то, ведется человек или нет. А средств автоматического распознавания сгенерированного голоса, изображений, дипфейков не существует. А ведь звонить будут не с хохляцким „гэ“, а голосом родственника».

Такое мошенничество, а также телефонная вербовка не могут проходить без пособников в России, которые создают так называемые центры приземления звонков. ФСБ начала выслеживать подобных лиц. «Арестовали чуть ли не 40 человек, у них изъяли 227 тысяч сим-карт, а мощность всей системы была 40 миллионов звонков в день. А если подключить искусственный интеллект?» — задался вопросом Ашманов.

Но главное, это было бы невозможно без помощи российских мобильных операторов. «Во-первых, есть 1,5 или 2 тысячи виртуальных мобильных операторов в регионах, которые поставляют временные номера, сим-карты и так далее, — объяснил Ашманов. — Но, как мне говорили специалисты, такой объем звонков центральные мобильные операторы не могли не замечать. Есть пособники в центральных компаниях… Однако, если пытаться вводить ответственность для мобильных операторов за такие вещи, будет довольно большое сопротивление. Потому что это огромный бизнес, украинцы платят им деньгами, украденными у наших пенсионеров и школьников».

«Сливаются данные из мобильных операторов, из крупных наших цифровых платформ, частично и в „Госуслугах“ крадут. И это делают не злые хакеры, а инсайдеры продают» «Сливаются данные из мобильных операторов, крупных наших цифровых платформ, частично и из «Госуслуг» крадут. И это делают не злые хакеры, а инсайдеры продают» Фото: ru.freepik.com

Почему бизнес против регулирования ИИ

Вторая составляющая — персональные данные. Многие из таких звонков начинаются с перечисления личных деталей. «Откуда им это все известно? Потому что в последние несколько лет украли сотни миллионов записей персональных данных… Сливаются данные из мобильных операторов, крупных наших цифровых платформ, частично и из „Госуслуг“ крадут. И это делают не злые хакеры, а инсайдеры продают», — возмутился Ашманов. А законопроект, предусматривающий ответственность за утечку персональных данных, грозящий нарушителю и распространителю уголовной ответственностью или серьезными штрафами, не прошел даже первое чтение. Этому тоже мешает бизнес. Сами компании оправдываются тем, что данные им необходимы, что неоправданная регуляторика затормозит развитие ИИ. «Понятно, что правоохранительным органам надо уметь распознавать лица преступников. А Сбербанку или „Яндексу“ такие данные не нужны. Нашим цифровым платформам все эти лишние данные требуются для втюхивания, и больше ни для чего», — заключил Ашманов.

Впрочем, и в руках людей в погонах ИИ может натворить дел. Первый замглавы комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова напомнила о деле ученого-гидролога Александра Цветкова. В отношении него возбудили уголовное дело по подозрению в совершении трех убийств только на основании данных ИИ, «опознавшего» его по фотороботу, составленному 20 лет назад. Несмотря на алиби, ученого арестовали, обвинения были сняты лишь спустя год заключения.

«Фейки и дезинформация могут быть использованы в отношении не только конкретного человека, но и государства», — предупредила сенатор и предложила рискориентированный подход к регулированию, разделив сферы применения ИИ на четыре группы. Первая — недопустимый риск: ИИ не может выставлять диагнозы и выносить приговоры. Вторая — высокий риск: любое применение в образовании, на транспорте и в тому подобных сферах. Третья — ограниченный риск: использование возможно, только если люди предупреждены, что взаимодействуют с ИИ. Четвертая — минимальный риск: свободное использование, например в видеоиграх и фильтрации спама.