Еще несколько лет назад искусственный интеллект мог генерировать лишь сюрреалистичные изображения и видео, распознать нейросетевую природу которых не составляло труда — ИИ рисовал людей с тремя руками и шестью пальцами на каждой из них, искажал лица, путал и смешивал буквы и так далее. Сегодня, однако, продвинутые модели способны создавать контент, подчас не отличимый от рукотворного.
Обычное фото человека, видео, на котором лектор что-то рассказывает естественным голосом, рисунок в стиле мультипликации, скан документа, текстовая статья и многое другое — все это сегодня с определенной долей риска может оказаться «творчеством» нейросетей. И если одних людей такой технический прогресс, скорее, завораживает, то у других он вызывает опасения — что, если генеративным контентом ИИ воспользуются злоумышленники для обмана добросовестных граждан?Как отмечает председатель совета Фонда развития цифровой экономики Герман Клименко, создание фейковых изображений, видео и аудиозаписей при помощи нейросетей, по сути, мало чем отличается от кражи чужой личности и ее имитации либо подделки фото с помощью фоторедакторов. Разница тут лишь в уровне технологичности. При этом полностью предотвратить использование ИИ в противоправных целях невозможно, уверен он. Можно лишь минимизировать вред от мошеннических фейков, созданных нейросетями, а для этого необходимо сделать их создание дорогостоящим, что сделает обманные схемы не выгодными. Также в борьбе с фейками поможет и снижение уровня анонимности в Интернете. Об этом эксперт рассказал Общественной службе новостей.
«Больше 50 % контента, который мы видим в Сети, создано искусственным интеллектом»
blockquote
«Действительно, все развивается, и мы уже не всегда можем отличить контент нейросетей от реального. Иногда смотришь и просто восхищаешься. Но хочу заметить, что крупные компании, которые контролируют рынок, вполне себе научились бороться и с нарушением авторских прав, и с неподобающим контентом. Более того, мы знаем, что сами компании-разработчики разнообразных крупных нейронных сетей четко понимают, какой контент создан искусственным интеллектом, а какой нет. Даже утверждается, что уже сейчас больше 50 % контента, который мы видим в Сети, создано искусственным интеллектом», — говорит собеседник издания.
По мнению Клименко, крупные игроки рынка ИИ по итогу договорятся между собой о стандарте индексации сгенерированного контента — например, будут его помечать едиными метками, по которым различные ресурсы смогут отличать его от созданного человеком. Причем произойдет это без государственного участия, считает он.
Что касается проблемы использования ИИ в противоправных целях, Клименко указал:
«Мы открыли ящик Пандоры и очевидно уже не победим фейкоделов, как и сейчас не можем избавиться от цифровых мошенников, поскольку нам приятно пользоваться карточками, нам приятно пользоваться криптой, нам приятна IP-телефония. Мы можем только привести преступность к социальной норме, при этом повысив стоимость звонков для мошенника, — продолжает эксперт. — С нейросетями будет та же самая история. Мы не победим генерацию контента любого свойства, но мы можем обеспечить дороговизну этой истории. Наша задача — сделать так, чтобы люди от этого не страдали. А, например, в случае с телефонными мошенниками они страдают ровно потому, что звонок дешевый и можно делать массовые обзвоны, хоть и денег с каждой жертвы будет не много. Поэтому игрокам рынка ИИ нужно по максимуму обеспечить высокую стоимость создания хороших фейков для частного лица. Я думаю, это будет сделано, и мы будем жить в мире, где, с одной стороны, вам действительно может позвонить Владимир Владимирович Путин или Барак Обама, но с другой, для мошенника это будет очень дорогой звонок».
Собственно, дороговизна качественной генерации контента нейросетями останавливает злоумышленников уже сейчас, отметил эксперт. По его словам, для создания видеозаписей, на которых ИИ правдоподобно изобразит другого человека, совершающего какие-то действия, мошеннику нужно весьма серьезное оборудование и финансовые вложения.
«Страдать мы будем, но не массово и не катастрофично»
blockquote
Для добросовестных же граждан высокая стоимость услуг ИИ проблемой не станет, считает Клименко. Напротив, это дополнительно обезопасит представителей творческих профессий, уверен он. Если услуги продвинутого ИИ будут обходиться дороже, чем услуги человека, то работы тот точно не лишится.
«И еще, самое важное — чем меньше будет анонимности, тем меньше будет проблем с фейками. Все фейки вбрасываются через какие-то мутные аккаунты неизвестных людей. Чем меньше будет анонимности, тем меньше будет места для вбросов и, соответственно, тем выше конкуренция для мошенников, тем выше для них цена. То есть страдать мы будем, но не массово и не катастрофично», — добавил собеседник издания.
При этом он заметил, что фейки (с английского fake — фальшивка, подделка), по сути, существовали всегда. В прошлом одни люди могли выдавать себя за других, подражая их телесному языку или имитируя тембр голоса, а еще совсем недавно, с появлением фоторедакторов, полосы газет и Интернет заполнили отфотошопленные изображения, из-за чего многие обеспокоились все той же опасностью фейков. По итогу, однако, ко всем этим явлениям общество адаптировалось. То же самое произойдет и с генеративным искусственным интеллектом, уверен Клименко.
«Мошенничество [с использованием ИИ] — это обычное мошенничество. Здесь нет ничего такого, что выходило бы за рамки того, что мы уже знаем. Нас мучает, что это здесь, рядом, что наш смартфон может нам как-то навредить. Но мне кажется, что мы будем от этого страдать так же, как страдаем сейчас, — говорит собеседник издания. — Это наше будущее. Обратите внимание, в какой-то момент времени мы перестали брать трубки с сомнительных номеров. Так что мы привыкаем, адаптируемся».
Что касается государственного регулирования сферы ИИ, то, считает эксперт, тут важно, чтобы законодатели, прежде чем принимать какие-либо меры по отношению к нейросетям — например, маркировку сгенерированного контента, — проконсультировались с представителями IT-индустрии. По-хорошему, в России также нужно разработать Цифровой кодекс, в котором были бы прописаны определения основных терминов, вроде «фейк», «искусственный интеллект», «цифровая платформа», «сервис» и так далее. На данный момент такой юридической базы в отношении Интернет-сферы в стране нет, указал он.
«Мы [IT-индустрия] и так занимаемся ИИ, нас это беспокоит, и мы тут гораздо эффективнее. И лучше бы нас спросили: а что нам надо для того, чтобы эффективно решить этот вопрос? Поисковики же гораздо больше страдают от избыточного контента. Мечта поисковиков — не проиндексировать, извините, фигню и ей трафик отдавать, а найти правильный контент и правильно отдавать трафик. И если вы спросите и вам скажут, что не надо, то не надо ничего делать», — резюмировал собеседник издания.
Читайте также:
- Клименко: Искусственный интеллект не оставит россиян без работы
- Эксперт по кибербезопасности Ульянов назвал риски использования нейросетей
- Аналитик Ромачев: Отпечатки пальцев со смартфона могут похитить спецслужбы США
Сообщение Клименко: Услуги ИИ должны стоить дорого, чтобы ими не пользовались мошенники появились сначала на Общественная служба новостей.
Свежие комментарии