«Эпоха новых жуликов»: об опасности и благе ИИ рассказал эксперт

«Эпоха новых жуликов»: об опасности и благе ИИ рассказал эксперт фото на taspanews.kz от 19 декабря 2024 15:35
Фото: Pexels

17 декабря министр культуры и информации Аида Балаева на своей странице в Facebook рассказала, что мошенники подделывают ее голос с помощью искусственного интеллекта, и призвала казахстанцев к бдительности. О том, зло или благо несет ИИ, его возможностях, влиянии на экономику и необходимых для безопасности населения шагах корреспонденту Taspanews.kz рассказал эксперт в цифровом маркетинге Геннадий Захаров.


Инструмент


Захаров поделился мнением, что ИИ – это очень «крутой» инструмент, который позволяет людям самых разных профессий улучшать свою производительность, делать чуть больше, чем они способны были делать раньше. 


«Например: новый счет, новый конвейер. Можно сказать, что ИИ – это своего рода промышленная революция, которая изменит очень многое в нашей экономике, минимум лет через 5-6. Мы просто не узнаем текущую экономику, она трансформируется радикально, конечно, если не будет каких-то глобальных проблем – войн, катастроф»,   – считает эксперт.

По его мнению, ИИ и инструменты на его базе дают возможность творить ярче и шире, открывают возможности в медицине, примером чего служит проект Neuralink от Илона Маска. 


«Они дают нам больше возможностей, как человечеству, но и опасностей „вагон и маленькая тележка“, потому что инструмент – невероятно мощный. Он способен делать вещи, которые делает человек, но намного быстрее и более качественно»,  – отметил Захаров. 

Эксперт не отрицает, что мошеннических схем с применением ИИ действительно много. 


«ИИ – это больше благо и развитие экономики на долгие годы вперед, но его можно использовать и во вред тоже. Например, случай с Балаевой – это далеко не первый и не последний пример. Копирование голоса – это довольно простой ход для ИИ. Нейросети вроде платной Eleven Labs могут за минуту скопировать голос. Есть экспериментальные нейросети, которые могут за несколько секунд клонировать голос человека. Есть споры по поводу эффективности. Есть VALL-E, есть SpeechText, примеров масса. Eleven Labs, Voice Ai – самые известные, скорее всего. Голосом все не ограничивается: фото, дипфейки, баннеры на улицах в городах, на огромных экранах появляются предупреждения о дипфейках. В Таиланде они вообще на каждом углу – эти предупреждения для людей. Можно клонировать внешность человека, его голос, манеры – создать видео с его изображением. Это новая реальность, к которой нам нужно адаптироваться»,  – уверен эксперт. 

Доверие


Захаров предположил, что нас так пугает мошенничество с применением искусственного интеллекта, поскольку люди привыкли доверять телевизору, тому, что нам показывают.


«Пропаганда именно по такому принципу в любой стране мира работает. Поэтому ИИ может влезть в этот канал связи и передачи информации. Это может направлять не только власть, но и каких-то крупных игроков рынка и экономики. Но люди уже не так глупы, они, наоборот, приучатся всегда проверять информацию»,  – полагает эксперт. 

Он уверен, что сейчас все еще сильна тенденция верить любой картинке, но развитие ИИ и увеличение числа таких обманных махинаций, напротив, приведет к тому, что люди научатся в любой подобной ситуации совершать фактчекинг. 


«Звонит, например, мошенник. Просит голосом вашей мамы, дочки перевести деньги – вы звоните по другому каналу, перепроверяете эту инфу. Здесь та же ситуация, произойдет необходимая нормальная адаптация. Мошенники были во все времена, они всегда прогрессируют, используют новые технологии для обмана и кражи, а люди и системы безопасности адаптируются»,  – считает Захаров. 

Эксперт отметил, что в целом мошеннических схем – баснословное количество: фейковые чат-боты, подмена личности, создание фальшивых сайтов, подделка книг, статей, написанных якобы от имени реального автора. 


«Да, потенциал обмана гигантский, но люди адаптируются. Вспомните только систему Понци 30-х годов в США во времена Великой Депрессии – первый пример финансовой пирамиды, которые, кстати, до сих пор существуют. Возможно, сейчас мы находимся в эпохе новых жуликов, о которых потом сложат легенды»,  – предположил Захаров.

Государство


Государство, по мнению эксперта, может обезопасить своих граждан только одним способом: с помощью просвещения, то есть обучения тому, как проверять информацию, дважды все анализировать. 


«Это должно делать не государство, а человек. Человек должен научиться не доверять автоматически всему, что ему говорят и показывают. Это очень хорошо. Так и влияние пропаганды уменьшится, потому что некое недоверие здравое войдет в привычку. Это повысит образованность и осведомленность граждан. Не верим инфе, даже несмотря на какие-то авторитеты авторов. Это уже происходит в сфере государственных органов в плане борьбы с мошенниками. Те самые предупредительные пуш-уведомления („Не доверяйте мошенникам“) – это оно и есть»,  – привел пример Захаров. 

По его словам, ИИ с нами уже последние лет 15, но раньше он не был так прост, как Chat GPT, и не был так распространен. ИИ – это и автоматическая обработка фото, и алгоритм поиска в гугле, и операции внутри ПК. ИИ с нами надолго, он развивается, устраняются его уязвимости. Конечно, люди должны уметь пользоваться этими инструментами. 


«Вопрос при этом даже не в том, сможете вы отличить картинку ИИ от реального фото. Скоро технологии дойдут до такого развития, что вы и не сможете без специалиста это сделать, но дело в том, сможете ли вы ту или иную информацию от ИИ использовать себе во благо или во вред. 80 процентов контента, который нас окружает – это и есть ИИ. Вот например студент написал диплом с помощью ИИ: и что? Если он написал что-то путное – хорошо; если ерунду скопировал – тогда ставь ему “неуд”. ИИ – это такой же инструмент, как Excel для бухгалтера, например. Есть те, кто будет использовать счеты и калькулятор, а есть тот кто будет использовать специальную программу и все равно обойдет конкурентов на профессиональных оборотах – от этого уже никуда не деться. Потому что эти инструменты – это слишком полезно и удобно. Нужно использовать себе во благо, а не во вред, вот и все»,  – уверен Захаров. 

Применение 


Эксперт заметил, что у разных стран – разный опыт с искусственным интеллектом, а также и разный опыт борьбы с мошенничеством с его применением. Есть страны, в которых отчаянно пытались запретить ИИ, но не смогли, потому что это слишком экономически выгодно. А использование ИИ против самих мошенников – уже распространенная схема во многих странах. 


«Как я и говорил, ИИ с нами уже давно, но сейчас он стал более популярен и понятен, потому что Chat GPT понимание ИИ упростил»,  – пояснил Захаров.

Он рассказал нашему корреспонденту, что в Казахстане был супер-проект Cerebra.ai, помогающий определить церебральный паралич на самых ранних стадиях с помощью ИИ. На данный момент его разработка продолжается уже в США.


«Сейчас практически все крупные финансовые операции модерируются благодаря искусственному интеллекту. Те же самые банки используют его. Например, когда Каспи выдает вам ограничение на совершение перевода или оплаты, это значит, что внутри самой системы банка сработали определенные заложенные алгоритмы, то есть, тот самый искусственный интеллект»,  – привел еще один пример Захаров.

По словам эксперта, примеров использования искусственного интеллекта в каждой сфере – тысячи, настолько много, что сложно сходу назвать какие-то самые популярные. Потому что нет одного базового приложения с искусственным интеллектом в той или иной сфере. Практически все крупные IT-компании на рынке работают с искусственным интеллектом, поэтому вариантов его использования, в том числе, и в сфере безопасности, огромное количество. 


«В Великобритании запущен стартап, благодаря которому искусственный интеллект как бы обманывает самих мошенников по телефону. Он притворяется пожилым человеком, которого мошенники пытались обмануть, ведет продолжительный разговор с ними, при этом успевает вычислить какие-то основные данные об этих преступниках»,  – отметил Захаров. 

Он пояснил – система срабатывает автоматически при поступлении подозрительного звонка. Человек не имеет прямого контакта с мошенником, он в безопасности, и в то же время не теряет своего времени на этот бессмысленный разговор.


Решение для КЗ


Казахстану для борьбы с высокотехнологичными мошенниками нужны свои стартапы, считает Захаров. Необходимо опираться на международный опыт, но нужно разрабатывать проекты, которые будут существовать в соответствии с протоколами защиты и безопасности, нужными именно Казахстану. 


«Подобные примеры уже существуют в государственном секторе. Например, так приходят штрафы нашим не самым добросовестным автомобилистам. Казалось бы, система простая: камера фиксирует нарушения и по номеру авто направляет штраф. Но на самом деле вся эта система работает на базе искусственного интеллекта. Действует зрение камеры, которое увеличивает цвет, качество, определяет, кому принадлежит этот номер авто. Все дорожные штрафы, которые сейчас таким образом фиксируются – это все, можно сказать, работа искусственного интеллекта»,  – объяснил специалист.

Он уверен, что можно придумать самые качественные, самые оперативные технологии безопасности, но мошенники тоже будут развиваться. 


«Значит, самое важное решение – это открытость чиновников, открытость министерств, открытость государственного аппарата. Необходимо просвещение народа, повышение уровня его образованности в сфере искусственного интеллекта: чтобы народ не боялся искусственный интеллект, а умел его эффективно применять себе во благо»,  – резюмировал Захаров.

Следите за новостями Taspanews