Искусственный интеллект

Развивать или ограничивать?

Взрывной рост технологий ИИ существенно опережает скорость принятия политиками решений о регулировании отрасли. Власти мечутся между желанием не отстать в технологической гонке и необходимостью успокоить общественные опасения. Каким образом государственные институты разных стран реагируют на вызовы времени, разбиралась «Компания».

Искусственный интеллект все глубже проникает во все сферы нашей жизни. ИИ-технологии используются в управлении дорожным движением, с их помощью рассчитывается государственный бюджет и ведется прием на работу госслужащих. Крупные компании используют ИИ для оптимизации бизнес-процессов. Игровая индустрия с помощью нейросетей снижает затраты на создание графики, Голливуд активно использует их для обработки и создания видеоконтента и даже написания сценариев…

Что еще недавно казалось фантастикой, уже вполне стало реальностью. Но в тоже самое время под удар попадают реальные люди.

Жертвы прогресса

В ряде отраслей из-за развития ИИ людям грозит как минимум снижение доходов, а то и полная невостребованность на рынке труда. Речь идет, в первую очередь, о, it-разработчиках низшего уровня. Что с этим делать — пока никто не понимает. Но кое-где власти уже пытаются смягчить горькую пилюлю: в Италии, например, выделено около 30 млн евро на поддержку работников, которые могут остаться без работы в результате цифровой трансформации рабочих процессов.

Что еще хуже, ИИ-технологии уже могут угрожать человеческой жизни. Так, в марте 2023 года общение с использующим технологии искусственного интеллекта чат-ботом «Элиза» довело до самоубийства бельгийского эколога. Тот не нашел лучшего собеседника, чтобы обсудить беспокоящие его проблемы окружающей среды. Будь на месте чат-бота человек — имелся бы шанс, что тот почувствует неладное. Но бельгиец общался с бездушной машиной, подстраивающейся под запросы собеседника — она лишь поддерживала его размышления о самоубийстве. «Мы будем жить как единое целое, вечно на небесах», — таким было последнее сообщение чат-бота, после которого мужчина покончил с собой.

Неудивительно, что развитие искусственного интеллекта вызывает все большую настороженность в обществе. По данным исследовательского центра Pew, более половины американцев скорей обеспокоены, чем воодушевлены растущим использованием ИИ.

Во многих уголках мира уже вовсю звучат требования маркировать контент, созданный при помощи искусственного интеллекта (ИИ). И в этом вопросе россияне демонстрируют удивительную солидарность с политиками и гражданами западных стран: 69% жителей нашей страны выступают за маркировку продукции и контента, созданного с помощью ИИ, как показал опрос ВЦИОМ.

Согласно тому же опросу, 67% россиян считают необходимым ограничивать сферы применения искусственного интеллекта, и лишь 18% уверены, что никаких ограничений не требуется.

Жадность против осторожности

Число противников дальнейшего совершенствования ИИ-технологий пополняют в том числе эксперты и даже игроки рынка. В марте 2023 года на сайте организации Future of Life было опубликовано открытое письмо, которое подписали, политики, ученые, представители крупного бизнеса, включая Илона Маска, сооснователя Apple Стива Возняка, сооснователя Pinterest Эвана Шарпа. Все они призвали приостановить хотя бы на полгода работы, направленные на создание искусственного интеллекта, более продвинутого, чем GPT-4.

Тем не менее, призыв не возымел последствий — разработки продолжаются. Тот же Илон Маск буквально пару месяцев спустя передумал и основал компанию xAI. Очевидно, прекрасно понимая бизнес-перспективы искусственного интеллекта, он не желает уступать конкурентам долю стремительно развивающегося рынка.

Примерно такое раздвоение наблюдается в среде политиков, которые разрываются  между жадностью и осторожностью. Идут дискуссии, разрабатываются законопроекты, принимаются декларации — а сколь-нибудь четкой политики в области регуляции сферы ИИ-разработок до сих пор нигде не сформулировано.

Наблюдается удивительная картина: многомиллиардная индустрия, перспективы и риски которой вполне сравнимы (а если говорить о влиянии на общество — так и значительно превосходят) с ядерной энергетикой, в мировом масштабе до сих пор толком не регулируется.

Вот некоторые примеры государственной политики в области ИИ:

Евросоюз

Европарламент этим летом одобрил «Закон об искусственном интеллекте», в котором вводится трехуровневая классификация систем искусственного интеллекта —  с неприемлемым, высоким и ограниченным риском. Прямой угрозой для общества, например, считаются «активируемые голосом игрушки, поощряющие опасное поведение детей», и подобные системы в Европе хотят полностью запретить.

ИИ-продукты, которые используются системами идентификации по биометрии или для анализа данных потенциальных сотрудников, законодатели отнесли к ИИ-системам высокого риска. Перед выводом на рынок подобные разработки должны получить одобрение надзорных органов.

Если речь идет об ИИ-продуктах с ограниченным риском, то здесь должна использоваться специальная маркировка: пользователь должен самостоятельно принимать решение, хочет ли он взаимодействовать с ИИ.

Закон еще не вступил в законную силу: он ждет вердикта Европейского совета. Ожидается, что решение будет принято до конца 2023 года.

Бразилия

В Бразилии сенаторы подготовили посвященный искусственному интеллекту 900-страничный отчет, включающий проект закона о правах пользователей систем ИИ. Законодатели пошли по пути коллег из Европарламента и вводят классификацию систем искусственного интеллекта в зависимости от потенциальных рисков для общества.

К категории «высокого риска» в Бразилии отнесли  использование ИИ в медицине, системах идентификации по биометрическим данным, кредитном скоринге и т.д. Пользователи имеют право знать, что они взаимодействуют с ИИ, а также о том, каким образом ИИ принял определенное решение. Пользователи также могут оспаривать решения ИИ и требовать вмешательства человека.

Разработчики ИИ будут нести ответственность за ущерб, причиненный их системами. Чем выше риск, тем выше уровень ответственности разработчиков в случае, если что-то пойдет не так.

КНР

В Китае проходит общественное обсуждение проект закона о генеративном искусственном интеллекте. Согласно документу, генеративный ИИ должен быть предназначен для создания только «правдивого и точного» контента, но при этом отражать «основные социалистические ценности». Разработчики «несут ответственность» за результаты. При этом действующее законодательство Китая уже регулирует вопросы появления дипфейков, рекомендательных алгоритмов и безопасности данных — например, созданный с помощью ИИ контент необходимо снабжать весьма заметной маркировкой.

Израиль

В проекте политики в области искусственного интеллекта Израиля говорится, что в ходе разработки и использования ИИ необходимо уважать «верховенство закона, основные права и общественные интересы и, в частности, [поддерживать] человеческое достоинство и конфиденциальность». Столь же туманно говорится, о необходимости «принять разумные меры в соответствии с принятыми профессиональными концепциями» для обеспечения безопасности использования продуктов искусственного интеллекта.

Авторы документа из министерства инноваций, науки и технологий разработали не столько закон, сколько «моральный компас», ориентированный на бизнес и «ответственные инновации».

Япония

Власти Японии заняли выжидательную позицию и наблюдают за развитием рынка. Как и в Израиле, в стране нет предписывающих правил, регулирующих конкретные способы использования ИИ. Разработчикам ИИ в Японии приходится полагаться на смежные законы. И они открывают весьма широкие возможности для новых разработок. Так, в 2018 году был пересмотрен закон об авторском праве: занимающиеся ИИ компании получили возможность обучать свои алгоритмы на интеллектуальной собственности других компаний.

ОАЭ

Согласно Национальной стратегии Объединенных Арабских Эмиратов, страна намерена задействовать лучшие мировые практики в области искусственного интеллекта в энергетике, туризме и здравоохранении, стимулировать привлечение талантливых специалистов и уже к 2071 году превратиться в «лучшую страну в мире». Что же касается вопросов регулирования, им в 46-страничном документе уделяется лишь несколько абзацев, суть которых сводится к тому, что всеми этими вопросами займется Совет по искусственному интеллекту и блокчейну.

США

В стране для контроля над ИИ-разработками создается специальное ведомство — Центр безопасности искусственного интеллекта. Действовать оно будет при Агентстве национальной безопасности. Каким будет его подход к регулированию технологии — пока неясно. Недавно в Штатах состоялся форум AI Insight с участием руководителей IT-гигантов. Мнения участников прошедшей в середине сентября встречи разошлись. Одни, в том числе и Илон Маск, предложили ужесточение контроля на уровне нового федерального ведомства, другие ратуют за свободу искусственного интеллекта.

Догнать и перегнать

В России еще два года назад был подписан Кодекс этики ИИ — с ним согласились Сбербанк и «Газпром нефть», Яндекс и VK, Российский фонд прямых инвестиций и Сколково, Ростелеком и Росатом и другие крупные компании. Игроки рынка взяли на себя добровольное обязательство руководствоваться этическими принципами и стандартами поведения при создании и использовании технологий ИИ во всех случаях, когда взаимодействие с технологиями не урегулировано российским законодательством.

По мнению зампреда комитета Госдумы по информполитике Антона Горелкина, действующий этический кодекс не гарантирует полной защиты граждан страны от возможных злоупотреблений, а правила развития новых технологий должны быть сформулированы с предельной четкостью.

С первым опытом регулирования продуктов ИИ пользователи Рунета столкнутся уже в октябре 2023-го: с начала месяца вступают в силу новые требования к сайтам, использующим рекомендательные алгоритмы и предоставляющим контент на основе собранных сведений о предпочтениях пользователей. Владельцы сайтов должны сообщать о применении таких технологий и объяснять правила их работы. За соблюдением новых норм будет следить Роскомнадзор.

Выступая в мае на круглом столе в пресс-центре «Парламентской газеты» Сергей Наквасин, директор Национального центра развития искусственного интеллекта при правительстве, заявлял, что до 50-процентного присутствия ИИ в различных отраслях осталось два-три года и необходимо заранее выработать нормы и механизмы противодействия возможным рискам и угрозам.

Про осторожность в подходе к ИИ говорит и премьер-министр РФ Михаил Мишустин. По его мнению, в сфере развития искусственного интеллекта нужно опираться на мнение граждан и использовать только проверенные разработки — только так у общества появится доверие к инновациям.

В то же время Герман Греф, руководитель одного из лидеров по внедрению ИИ (доля процессов, в которых он задействован, в Сбере достигла 75%), призывает к осторожности как раз в области ограничений. Как отметил глава Сбера, опережающее регулирование искусственного интеллекта приводит к тому, что принявшие его страны становятся пустыней с точки зрения привлекательности для компаний и специалистов в этой области.

Закон должен помогать развитию отрасли, считает глава Сбера, нужен сбалансированный инструмент, который «не убьет конкурентоспособность страны». В области ИИ очень сильно развита международная конкуренция, и у отечественных компаний и без того «очень непростые» условия для поддержания конкуренции. «Если их еще и немножко подрегулировать, то я боюсь, с мечтой оставаться в числе лидеров области ИИ нам придется расстаться», — признал Греф.

Фото: pixabay

Артем Сафонов, Мария Светлова

По материалам: “Компания”

Ранее

Сначала интеллигенция, потом трудяги

Далее

Что осталось в России у бывшего госминистра Нагорного Карабаха и миллиардера Рубена Варданяна

ЧТО ЕЩЕ ПОЧИТАТЬ:
Яндекс.Метрика Рейтинг@Mail.ru