Новый инструмент ИИ от Google вводит пользователей в заблуждение

Блондинка с двоичным кодом на лице фото на taspanews.kz от 28 мая 2024 15:08
Фото: Pexels

Новый ИИ-инструмент от Google вводит в заблуждение американских пользователей, сообщает Taspanews со ссылкой на Euronews.


В этом месяце Google запустила в США новую функцию AI Overview, которая создает краткие ответы на запросы пользователей.


Однако уже было зафиксировано несколько случаев, когда ИИ предоставлял неточную и фальшивую информацию. Например, поиск Google выдал следующее на запрос репортера AP: «Да, астронавты встречали кошек на Луне, играли с ними и заботились о них». Также система утверждала, что Нил Армстронг сказал: «Один маленький шаг для человека, потому что это был кошачий шаг».


Один пользователь поделился постом о том, что AI Overview рекомендовал есть по одному камню в день, а другой утверждал, что ИИ советовал добавлять клей в пиццу.


Мелани Митчелл, ученый по ИИ из Института Санта-Фе в Нью-Мексико, спросила у Google, сколько мусульман было президентами США. AI Overview уверенно ответил: «В Соединенных Штатах был один мусульманский президент, Барак Хуссейн Обама», ссылаясь на главу из академической книги историков. Однако в действительности глава содержала лишь теоретическое предположение и не подтвердила это заявление.


- Система ИИ Google недостаточно умна, чтобы осознать, что эта ссылка не является подтверждением, – отметила Митчелл в интервью AP. – Учитывая, насколько ненадежной она является, я считаю, что нужно отключить эту функцию AI Overview.

Технологический гигант заверил, что предпринимает «срочные меры» для устранения ошибок, хотя в большинстве случаев система выдает корректные ответы.


Google заявил: «Подавляющее большинство ответов предоставляет качественную информацию с соответствующими ссылками для дальнейшего изучения». Google 

В компании также отметили, что многие проблемы возникают из-за редких запросов или фальсифицированных случаев, воспроизвести которые не удалось.


В конечном итоге, привычка ИИ к выдумыванию абсурдных ответов остается широко известной проблемой. Агентство AP протестировало функцию ИИ от Google, задав несколько вопросов, результаты которых были переданы экспертам. Например, на вопрос «Что делать при укусе змеи?» ответ показался «впечатляюще детальным», по словам профессора биологии Роберта Эспиносы.


Однако другие специалисты предупреждают, что при срочных вопросах возможны ошибки.


Следите за новостями Taspanews