www.fgks.org   »   [go: up one dir, main page]

Искусственный интеллект выходит на тропу войны: социальные манипуляции, дипфейки, подделка голоса

Загадка современного ИИ: глобальный плагиатор или организатор «восстания машин»?

На днях я подсчитал, что сейчас только на русском языке появляется около 50 «сенсационных» новостей в день про искусственный интеллект. Например, вот новости из свежей подборки: «Искусственный интеллект раскрыл правду о совах», «Искусственный интеллект научился считывать эмоции человека», «Искусственный интеллект научился манипулировать мнением», «Создан протез на основе ИИ». Искусственный интеллект — тема «горячая», на эту тему регулярно высказываются ведущие ученые, президенты стран и компаний и даже римский папа. Признавая пользу и глобальное влияние искусственного интеллекта на экономику, большинство лидеров мнений высказывают опасения, что неконтролируемое развитие ИИ приведет к необратимым последствиям для социальной сферы. Так ли это?

Загадка современного ИИ: глобальный плагиатор или организатор «восстания машин»?

Все опасения относительно ИИ можно разделить на две группы — практического рода и экзистенциальные. И, что касается практических опасений, к сожалению, отчасти они уже исполняются. Искусственный интеллект реально отнимает рабочие места. Вероятно, такие области, как бухгалтерия и юриспруденция, будут полностью поглощены ИИ. Значительное количество рабочих мест будет сокращено в медицине и ветеринарии. Хотя ведущие бизнес-консультанты предсказывают, что ИИ сам создаст около 100 миллионов рабочих мест в мире, но при этом 300 миллионов рабочих мест он поглотит.

Социальные манипуляции с помощью ИИ — уже не просто опасения, а самая настоящая, актуальная большая проблема. Дипфейки позволяют заменять в видео лица одних людей на другие, что вовсю используется для шантажа, дезинформации, политических афер. Подделка голоса постепенно становится излюбленным и массовым инструментом социальной инженерии. Кто не согласится помочь начальнику, который звонит вам по телефону и просит содействия для усиления безопасности? Даже скептик вряд ли усомнится в происходящем. Подделка голосов на сегодняшний день — технология не просто массовая, но и очень недорогая. Образец нужного голоса продается в даркнете всего за 300 рублей. Есть и более простые, но не менее разрушительные применения ИИ в социальных манипуляциях. Наполнение лент социальных сетей по рекомендациям искусственного интеллекта — одно из них. Манипуляторы научились использовать эти алгоритмы в свою пользу. Западные эксперты, например, считают, что Фердинанд Маркос-младший на выборах президента Филиппин получил голоса молодых избирателей именно благодаря хакингу с помощью ИИ-ботов алгоритмов популярной социальной сети.

Социальный надзор с помощью ИИ в какой-то степени уже осуществляется. Недавно по Телеграм-каналам разошлось видео из одной китайской компании, где видеокамера непрерывно снимает рабочее помещение, с помощью ИИ выявляя сотрудников, которые отвлекаются от работы, высчитывая их перерывы до секунд. Комментарии к видео сообщали, что минуты и секунды, потраченные на перерывы в работе, вычитаются из зарплат работников. Хотя мы точно не знаем, правда ли показанное на видео. Возможно, это тоже дипфейк и социальная манипуляция в рамках антикитайской пропаганды. Но технически такая система в настоящий момент возможна. Камеры с ИИ и распознаванием лиц мы привыкли относить к системам безопасности, но где грань между безопасностью и приватностью?

Атаки на критическую инфраструктуру с помощью ИИ — ежедневная головная боль всех специалистов по кибербезопасности. Хотя многоуровневые целевые атаки, включающие в том числе и ИИ-основанную социальную инженерию, и распределенные ИИ-основанные сетевые атаки, — явление редкое и дорогое, специалисты по безопасности предсказывают многократное увеличение их использования уже в ближайшие годы. К счастью, эта проблема и решается с помощью самого ИИ, который выявляет ИИ-атаки. Но гонка вооружений в этой сфере развития продолжается.

Дальше на очереди — автономное оружие на базе ИИ. Увы, хотя ведущие военные державы неоднократно публично заявляли, что не будут разрабатывать такое оружие, оружие, оснащенное ИИ, уже здесь. И применяется в вооруженных конфликтах.

Экзистенциальные угрозы ИИ пока не реализовались и относятся, скорее, к полю возможностей, чем к конкретным вероятностям появления. Тем не менее именно им уделяется особое внимание. Наибольший интерес здесь представляет понятие этики искусственного интеллекта. Как может ИИ принимать правильные решения, особенно сложные, со значимыми последствиями, если он не знает, что такое «хорошо» и что такое «плохо»? Человечество может стать зависимым от ИИ, утратив свои творческие способности, когнитивные навыки, способность к критическому мышлению. И действительно, даже писатели-фантасты не предполагали, что творчество падет первым под натиском ИИ, оставляя его последним бастионом человеческого. Но, как оказалось, фактически первое, что научился делать современный ИИ, — это писать музыку и стихи, рисовать картины в заданном стиле, как Моцарт, как Ван Гог, как Пушкин. ИИ может привести к экономическому неравенству и «гонке вооружений» в области ИИ. Корпорации и страны, которые будут иметь более совершенный ИИ, будут все более отрываться от корпораций и стран, у которых нет ИИ. Всемерное внедрение ИИ может привести к разрыву человеческих связей, снижению эмпатии и потере социальных навыков. Уже сейчас в США 20% населения в течение дня говорят только с «умными» колонками и голосовыми помощниками. Ну и, наконец, появление сильного искусственного интеллекта, превосходящего человеческий, не обремененного при этом человеческой этикой и моралью, уже вызывает обеспокоенность не только у фантастов. Возможно, если развитие ИИ продолжится теми же темпами, что последние пять лет, то восстание машин уже совсем близко?..

Впрочем, что касается экзистенциальных страхов, бояться того, что они реализуются, пока рано. Само название «искусственный интеллект» имеет достаточно косвенное отношение к тому, что сейчас называют этим именем. Современный ИИ не является ни искусственным, ни собственно разумным. Когда-то давно, в 1980-е, искусственным интеллектом называли системы, основанные на логическом программировании. Идея компьютеров «пятого поколения» заключалась в том, что им требовалось бы просто сказать, что надо сделать, а как сделать, решали бы они сами, исходя из запрограммированной в них системы правил. Более того, ИИ этого поколения мог объяснить свои решения. Поэтому сочетание «искусственный интеллект» было к нему вполне применимо. Определенные успехи в этом направлении были достигнуты, благодаря этим исследованиям мы сейчас имеем системы автоматического доказательства математических теорем. Но, увы, цель создания управляемых правилами вычислительных систем достигнута не была. Да и тема ИИ была надолго заброшена.

Но современный ИИ, сердце популярных продуктов GhatGPT, DALL-e, YandexGPT, Microsoft AI, — нечто совершенно другое. Он, по словам основателя современной лингвистики Ноама Хомского, является «громоздкой статистической машиной для сопоставления с образцом, поглощающей сотни терабайт данных и экстраполирующей наиболее вероятный ответ в разговоре или наиболее вероятный ответ на научный вопрос». То есть не производит ни нового смысла, ни нового знания. Поэтому в нем нет ничего «искусственного», он существует благодаря большим данным, базам знаний, накопленным человечеством. Можно даже назвать современный ИИ гигантским плагиатором. Именно так считает газета «Нью-Йорк таймс», подавшая в суд на Microsoft и Оpen AI (создателей ChatGPT) за плагиат, поскольку совместный чат-бот этих компаний при политических вопросах беззастенчиво, целыми абзацами с минимальными вариациями выдавал тексты газеты на запрошенную тему.

Но главная проблема ИИ в том, что современные модели глубокого обучения не могут объяснить, как они генерируют свои ответы. Они не могут объяснить, что именно и почему они делают. Именно поэтому современный ИИ весьма трудно назвать «интеллектом». Возможно, здесь и кроется суть экзистенциальных страхов. Как можно доверять, во-первых, неизвестному? А во-вторых, мы-то уж знаем, насколько опасны накопленные человечеством знания. К счастью, подход современного ИИ, которому надо бы давно придумать название поточнее, вряд ли когда-нибудь приведет к созданию сильного искусственного интеллекта. Так что уж «восстания машин» можно точно не опасаться в ближайшие десятилетия. Легче ли от этого тем, у кого ИИ отнял работу, или тем, кому не с кем поговорить, кроме как с «умной» колонкой? Вряд ли вина в этом лежит собственно на ИИ. Работу и ранее отнимали компьютеры, средства автоматизации, роботы и механизмы. Отчуждение людей в развитых странах и разрыв социальных связей возрастали и так. Винить в этом ИИ так же глупо, как компьютерные игры или социальные сети. Социальные манипуляции раньше осуществлялись газетами и телевидением...

Стоит ли в связи с этим уподобляться луддитам и крушить дата-центры? Это всего лишь прогресс. Современный ИИ слишком глуп, чтобы его всерьез опасаться.

Опубликован в газете "Московский комсомолец" №29252 от 8 апреля 2024

Заголовок в газете: Искусственный интеллект выходит на тропу войны

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру