Примерное время чтения: 7 минут
412

Преступление без наказания. Есть ли права у искусственного интеллекта?

Еженедельник "Аргументы и Факты" № 45. АиФ-Приморье № 45 09/11/2022
Вопросы, есть ли у искусственного интеллекта право на ошибку, всегда ведут к жарким спорам.
Вопросы, есть ли у искусственного интеллекта право на ошибку, всегда ведут к жарким спорам. / пресс-служба ДВФУ / пресс-служба ДВФУ

Искусственный интеллект проникает во все сферы нашей жизни. Он регулирует дорожное движение, ставит диагнозы, а кое-где даже выносит приговоры.

Есть ли у искусственного интеллекта право на ошибку, нужны ли ему человеческие свободы и как обеспечить безопасность подобных разработок? На эти вопросы ответил эксперт в области правового регулирования ИИ, автор многочисленных научных статей на данную тему, заместитель директора по развитию Института математики и компьютерных технологий ДВФУ Роман Дремлюга.

Место под солнцем

Наталья Урбановская, «АиФ-Приморье»: Искусственный интеллект (ИИ) сегодня пишет стихи и песни, создаёт картины, водит автомобили, регулирует дорожное движение. Пожалуй, сложно назвать какую-то сферу, где бы ИИ не нашёл своего применения. Роман Игоревич, но много ли стран воспринимают данную технологию как субъект права?

Роман Дермлюга: Сегодня ни одна страна мира не признаёт искусственный интеллект как субъект права – по сути, у него пока нет ни прав, ни обязанностей. В данный момент в Бразилии рассматривается возможность признать ИИ агентом права и наделить его ограниченным кругом свобод и обязательств. Впрочем, все остальные страны в этом плане более сдержанны и пока данный юридический вопрос не рассматривают.

– Корректно ли вообще поднимать вопрос об ответственности искусственного интеллекта, если пока ему не доверяют автономных решений в чём-либо серьёзнее распознавания котиков на картинке?

–Де-юре никто не хочет признавать ИИ субъектом принятия решения, но дефакто – это уже происходит повсеместно. Известный пример произошёл несколько лет назад в США с системой искусственного интеллекта, которая помогала судьям выносить решение об условно-досрочном освобождении, оценивая риски повторного совершения преступления.

Мы можем научить систему выносить судебные решения, «накормив» большой базой данных. Но весь этот процесс пойдёт насмарку, если в закон внесут поправки.

Юридически, конечно же, судьи были ответственными за принятые решения, но фактически они ссылались на «рекомендацию» системы и обычно следовали ей. ИИ использовался на протяжении нескольких лет, пока независимые журналисты не выяснили, что он склонен ошибаться, и как правило – не в пользу афроамериканцев.

Право на ошибку

– Искусственный интеллект может ошибаться, но делает ли он это чаще, чем обычные люди?

– Как показывает практика, искусственный интеллект превосходит человека в решении отдельных задач. Он сможет быстрее обработать большие данные, лучше определит пневмонию по компьютерной томограмме, более точно предскажет погоду, ну и, конечно же, он более метко стреляет, если мы говорим о такой перспективной сфере развития ИИ, как автономные боевые машины. Поэтому среднестатистический человек действительно в целом проигрывает этой технологии.

– Впрочем, бояться полной замены человека искусственным интеллектом пока ещё рано?

– Да, это так. Взрыв развития технологии случился 7-8 лет назад, когда появились нейронные сети и все решили, что до разработки «сильного» ИИ, равного или превосходящего людей, остались считанные дни. Но сегодня оценки более сдержанны, пришло понимание, что применение технологии не везде уместно. Да, спектр и простых, и сложных работ, который ИИ делает лучше, впечатляет. Но когда мы сталкиваемся с задачами, где требуется «человечный» подход, сложные оценки, множество смягчающих и отягчающих обстоятельств, искусственный интеллект пасует.

К тому же ИИ строится на данных, а их производят люди. Мы можем научить систему выносить судебные решения, «накормив» большой базой данных. Но весь этот процесс пойдёт насмарку, если в закон внесут поправки, ведь «пищи» в виде судебных дел ещё не будет. Поэтому если реалистично смотреть на вещи, то нам далеко до превосходства ИИ, но он определённо даёт преимущества тем странам, компаниям и людям, которые его используют в разных сферах: от научной до военной.

— А сложно ли целенаправленно заставить ошибаться ИИ либо «обманывать» современные системы?

— Действительно, многие политики и бизнесмены обещают нам, что ИИ сделает какую-либо сферу безопаснее и эффективнее, и мы часто слышим это о беспилотном транспорте. Он призван в десятки раз снизить аварийность и решить проблему дорожных заторов. Но оказалось, что зрение беспилотного автомобиля очень легко обмануть. Проводилось множество экспериментов – люди спреем закрашивали дорожные знаки, ходили по обочинам в футболках с принтом знаков, и это сбивало компьютерное зрение с толку. Даже незначительные изменения приводили к серьёзным эффектам, и система вела себя некорректно. Многим хочется попробовать себя в качестве «взломщика». Кто-то делает это из любопытства, а кто-то целенаправленно ищет уязвимости, чтобы совершить киберпреступление. Поэтому безопасность ИИ – это серьёзная проблема, которая требует очень вдумчивого подхода со стороны разработчиков.

Разница в подходах

– На базе ДВФУ работает Дальневосточный центр искусственного интеллекта, который был открыт совместно со Сбербанком. Учёные в России, как правило, изучают европейский или американский опыт. Есть ли различия между подходом к искусственному интеллекту на Западе и Востоке?

– Есть, и очень существенные! Население азиатских стран относится с большей терпимостью к технологиям искусственного интеллекта, поскольку адептам конфуцианства проще делиться данными с государством. У них вообще распространено понятие, что государство – это большая семья, где все друг за другом присматривают. Отличный пример – система социального рейтинга в КНР. Поэтому в Азии нет такого отторжения ИИ, как в Северной Америке или Европе, где сбор данных воспринимается как вторжение в личную жизнь и нарушение прав. Из-за этих различий в Европе принят регламент, который серьёзно тормозит развитие технологии искусственного интеллекта, — GDPR, почти полностью ограничивающий использование персональных данных граждан.

– А к какому вектору развития ИИ больше тяготеет Россия – к восточному или западному?

— Думаю, что в этом вопросе нам ближе Восток.

– В изданной под Вашей редакцией книге особый акцент делается не только на правовом регулировании, но и на этике искусственного интеллекта. Однако здесь имеются в виду нетрадиционные этические моменты, связанные, например, с вопросом «испытывает ли ИИ боль»?

– Действительно, в книге такие аспекты мы не затрагиваем, однако понятие «этика» вполне уместно. Многие государства не закрепляют регулирование ИИ в качестве законов, а просто вступают в диалог с разработчиками и совместно договариваются о правилах игры. Эти правила необязательны, за их нарушение нельзя привлечь к ответственности, однако тех, кто их соблюдает, государство может поддержать какими-то бонусами. В России тоже идут по такому пути – в прошлом году был принят «Кодекс этики искусственного интеллекта», к которому присоединились все топовые IT-компании страны, а также Дальневосточный федеральный университет.

– Если мы затрагиваем этику, то нельзя обойти тему алгоритмов и рекомендаций. «Умные» ленты новостей, которые подбирают интересные новости и игнорируют все остальные, «умные» плейлисты, избегающие экспериментов и состоящие из песен, которые точно понравятся, контекстная реклама товаров, которые нужны именно сейчас – этот список можно продолжать очень долго. ИИ манипулирует нашими интересами?

– ИИ действительно манипулирует человеком, когда предлагает ему что-то, от чего он не может отказаться. По некоторым рекомендациям число продаж дополнительных товаров доходит до 90% – можно ли в этом случае говорить о свободе выбора? «Умные» ленты соцсетей стали инструментом политиков, которые умело пользуются таргетированной рекламой. Свобода выбора может «сжаться» до нажатия кнопки «ок» в решениях, предлагаемых искусственным интеллектом.

Мне кажется, лучшей защитой от манипулирования людьми при помощи искусственного интеллекта было бы развитие интеллекта естественного. Человек, осознающий свой выбор, понимающий основы социальных и политических процессов, в некоторой степени застрахован от манипуляции. Кроме того, необходимо понимать, что такая манипуляция зачастую действительно полезна – если ИИ лучше ставит диагноз, то глупо не следовать его рекомендациям. Такое поведение будет сродни поведению ребёнка, который не хочет слушаться родителей, желающих ему добра.

Кстати

Полигон для различных систем искусственного интеллекта создаётся на базе ДВФУ в рамках программы «Приоритет 2030» и входит в стратегический проект «Центр цифрового развития». Помимо создания систем «умного» кампуса, в стратегический проект входят разработка поддержки принятия врачебных решений в области кардиологии, апробация нового метода реабилитации людей с ограниченными возможностями здоровья, а также технология по очувствлению протезов.

Оцените материал
Оставить комментарий (0)

Также вам может быть интересно

Топ 5 читаемых

Самое интересное в регионах