Ежегодно филологи и социологи определяют главное слово года, которое люди употребляют чаще всего. В 2021 году это было слово «штамм» — сказывалось наследие коронавируса. В прошлом году им стала «метавселенная». В нынешнем году главным словом, похоже, будет «чат GPT». Такие чаты, в которых машина даёт ответ на любой вопрос, сама создаёт текст или картинки по запросу, появились повсюду.
Как далеко продвинулись разработчики искусственного интеллекта? Способен ли человек противостоять компьютеру? Какие риски несёт людям искусственный интеллект? На главные вопросы сегодняшнего дня в сфере информационной безопасности ответил исполнительный директор Дальневосточного центра искусственного интеллекта Роман Дремлюга.
В ЛОВКИХ РУКАХ
— Такие системы или чаты действительно можно назвать искусственным интеллектом?
— Это система, которая на основе большого количества обрабатываемых данных способна имитировать интеллектуальное поведение. Настолько хорошо, что человеку чрезвычайно трудно отличать её ответы от ответов живого собеседника. Но предназначение GPT-систем — генерация псевдоуникальных данных. Такую деятельность, в общем-то, можно назвать интеллектуальной.
— В представлении обывателя искусственный интеллект пока — это своеобразная игрушка, которая создаёт весёленькие картинки или тексты. Но, думается, создавался он не для этого. Какие примеры полезного применения ИИ можно привести?
— Таких примеров масса. Например, известный проект — композитной брони. По заданным параметрам система подобрала для неё материалы, имеющие определённые свойства: прочность, лёгкость и гибкость. Дальше — дело технологов разработать систему производства и выпуска изделий. Стадию подбора материалов помог «проскочить» искусственный интеллект.
Проект Института искусственного интеллекта помог нашему «Спутнику» быть более эффективной и безопасной вакциной.
Мы в нашем центре в ходе работы по предсказанию маршрута тропических циклонов обнаружили, что корабли обходят их по избыточно большой дуге. Повысив точность наших прогнозов с одного дня до трёх, чего надеемся добиться уже к Новому году, мы позволим судоходным компаниям экономить время и топливо на выборе оптимального пути в обход зон непогоды. Это может повлиять на транспортно-логистические механизмы всего Азиатско-Тихоокеанского региона.
ЦИФРОВОЙ КОЛПАК
— Есть ли другие сферы его успешного применения в повседневной жизни?
— Его активно используют в коммерческой деятельности, изучая покупательский спрос. Опыт «Амазона» трёхлетней давности говорит, что при изучении спроса клиента второй предлагаемый товар берёт 80–95% покупателей в зависимости от категории товара. Что предлагать — подбирает искусственный интеллект.
— Это социальные манипуляции?
— Несколько лет назад американский исследователь Майкл Козинский обработал с помощью искусственного интеллекта 10 тысяч профилей социальной сети. ИИ стал предсказывать по фотографиям политическую ориентацию, сексуальные отклонения и многое другое с очень высокой точностью. Это исследование потом использовали многие крупные компании. Даже «Кембридж аналитика», которую обвиняли в разработке технологий для предвыборной кампании Трампа, использовала эти наработки для манипуляций американским обществом.
— А в криминальной деятельности ИИ используется?
— Можно попросить машину взломать какой-то ресурс. Причём в ряде случаев — буквально нажав пару кнопок. Так что хакерство перестаёт быть уделом профессионалов. Но кое-какие специфические знания всё же требуются.
ИИ может подделать голос, может создать видеокартинку, почти не отличимую от оригинала. Остаётся только печатать реплики на клавиатуре, а собеседник увидит и услышит очень достоверную подделку.
— А как информация утекает в интернет?
— Это целая индустрия в криминальном сегменте интернета. Большинство телефонов заражены средствами слежения. Вытянутая из гаджета информация при помощи систем искусственного интеллекта фильтруется для поиска конкретно интересующего злоумышленника контента. Как раз ИИ, как поисковая система, позволяет выбрать из миллионов абонентов и сообщений, допустим тех, кто переписывается с любовницей или разглашает секреты.
УЖЕ РАЗУМНЫЙ?
— Считается, что искусственный интеллект может представлять собой угрозу. Это так?
— Алармисты уже волнуются о том, что искусственный интеллект может выйти из-под контроля. Есть интересные истории о том, что разные части ИИ, занимающиеся переводом на разные языки, уже общаются между собой на своём искусственном языке. То есть для удобства перевода система сама для себя создала промежуточный способ общения.
— Уже можно говорить о зачатках у машины интеллекта?
— Пока ИИ может только создать эту видимость, хотя сложно сказать, насколько имитация говорит об интеллектуальности. Что такое разум, мы и сами не понимаем. Но успехи у компьютера уже есть. Например, такой: ИИ выиграл в го — азиатский аналог шахмат — сначала у корейского чемпиона, потом у китайского. А в го количество комбинаций больше, чем количество атомов во Вселенной. Слишком много, чтобы решать задачу перебором вариантов.
Способ победы ИИ над людьми-чемпионами не поддаётся человеческой логике. Он уже демонстрирует ходы, не свойственные человеку. Хотя пока что его интеллект можно сравнить с бактерией или животным.
ДУРНОГО НАСОВЕТУЕТ?
— Искусственный интеллект внедряется всё шире. Он способен заменить человека?
— В ряде областей жизнедеятельности машины могут заменить до 90% живых сотрудников. В торговле — практически всех, в бухгалтерии, юриспруденции, сфере услуг и далее — почти везде. Люди останутся, но только самые профессиональные. А со временем роскошь человеческого общения сама станет элитным товаром.
Жить будет значительно интереснее. Совсем недавно никакого чата GPT не было. Теперь он есть.
— Это и вызывает тревогу: что придумает искусственный интеллект?
— В научной литературе я видел гипотетические сценарии, более реалистичные, чем третья часть «Терминатора», и это не война машин с людьми. ИИ будет давить на нас информационно, предлагая советы и пути решения проблем. Но ИИ — не субъект принятия решений. Он может лишь посоветовать, пока за решения отвечает человек. Но часто человеку лень и он просто следует за рекомендациями, и в этом кроется основная опасность.
— А если человек сам ограничивает себя морально-этическими барьерами, такими как запрет слова «чёрный» в США?
— Специалисты отметили, что именно из-за таких ограничений чат GPT «поглупел». Фактически из-за этики стал решать задачи хуже. Именно из-за запрета на использование неких понятий и определений.
— Последствия подобное уже вызывало?
— В США 10 лет работала система, которая советовала судье, какие выносить приговоры. Скандал случился, когда выяснилось, что система — расист. За незначительные нарушения афроамериканцам предлагалось более жёсткое наказание, чем белым рецидивистам по «тяжёлым» статьям. Но данных о расе на входе система не получала. Она выносила рекомендации на основе почтового кода места проживания: жители более криминальных районов получали более суровые решения. А чёрные кварталы статистически криминальнее. Судья же просто соглашался.
— ИИ уже влияет на судьбы людей!
— Есть вероятность, что мы — человечество — сами сдадимся перед системами. Перестанем прилагать усилия, получая готовые подсказки. Это не будет война с машинами, как в кино. Мы сдадимся добровольно. Перестанем размножаться и вымрем потому, что все потребности будут удовлетворены и человеку останется с утра до вечера смотреть видео и мемчики с экрана. Хотя ИИ может спровоцировать и глобальную войну, подсказав несколько чреватых последствиями решений.
— Намеренно?
— На основании того, что люди видят на экранах своих смартфонов и компьютеров, они принимают политические и экономические решения, совершают морально-этический выбор. А количество информации постоянно растёт, как и количество фейков и реалистичных подделок. В конце концов, нас ждет «информационный апокалипсис», в котором трудно будет разобрать, что правда, а что вымысел.
ИИ делает выводы и выдаёт решения, основываясь на имеющейся информации, не проверяя её на достоверность.
— Как этого избежать? Уходить в «автономное плавание» без машин?
— Это крайность, но один из вариантов. Да, самообеспечение и отказ от многих благ. Это во многих местах уже стало трендом. Потому что большая часть благ — плоды маркетинга и манипуляции. Пропаганда образа жизни.
Ценность прямого человеческого общения сегодня — уже редкость. А в будущем это станет роскошью.
ДОСЬЕ
Роман Дремлюга
Выпускник Института математики и компьютерных наук ДВФУ (ДВГУ). Защитил диссертацию по теме киберпреступности.
Автор научного бестселлера «Интернет-преступность 4.0».
Лауреат национальной премии РФ в области искусственного интеллекта.