Галлюцинации искусственного интеллекта: как фантазируют машины
Даже самые продвинутые нейросети склонны к ошибкам — так называемым галлюцинациям: когда выдуманная информация звучит как достоверный факт. От фальшивых цитат до несуществующих идиом — ИИ уверенно фантазирует о том, чего нет. Как доверять ИИ?
Галлюцинации искусственного интеллекта: как фантазируют машины
Галлюцинации искусственного интеллекта: как фантазируют машины / TRT Russian
день назад

Искусственный интеллект стал неотъемлемой частью нашей цифровой повседневности. Однако наряду с удобством есть и проблемы — и одна из среди них носит название: галлюцинации ИИ.

Несмотря на впечатляющие успехи технологий, все чаще возникают ситуации, когда ИИ-системы уверенно выдают вымышленные или фактически неверные ответы. ИИ может перепутать исторические факты, представить шутку как правду и сослаться на форумный пост как на истину в последней инстанции. В результате он способен буквально «придумать» то, чего не существует — будь то научный факт, цитата или даже целый рассказ.

Что ИИ горазд «фантазировать», мы уже убедились — ТРТ на русском писал как японская писательница получила престижную литературную премию за роман, в котором 5% текста было дословно сгенерировано нейросетью. И именно эти строки жюри назвало «практически безупречными».

Однако галлюцинации — все же проблема. Фантазировать ИИ умеет, вот только отличить реальность от вымысла пока не научился.

У ИИ галлюцинации?

Галлюцинации ИИ — это ошибки, при которых искусственный интеллект выдает вымышленную, недостоверную или просто абсурдную информацию так, как будто она является правдой. Причина в том, что ИИ не совсем «знает» информацию в привычном смысле, так как ее знаем мы — он скорее предсказывает наиболее вероятное продолжение текста, опираясь на массив данных. 

Так, проблема затронула одну из разработок в этой области — Google AI Overviews. Функция появилась в поисковой системе Google в рамках проекта Search Generative Experience. Она предоставляет краткие сводки по запросам прямо в поисковой выдаче, основываясь на данных из интернета и выводах ИИ. Если вы ищете, как нужно что-то сделать, система может, в идеале, предложить вам подробную пошаговую инструкцию — ссылаясь на сайты и прочие источники.

На первый взгляд все выглядит удобно. Но на практике — не всегда.

Один из ярких и одновременно курьезных примеров — реакция ИИ на фальшивые запросы в виде идиом. На техническом ресурсе приводят примеры, как фразы вроде «два автобуса, едущих не туда, лучше одного, едущего в правильном направлении» вызывают у «гугловского» ИИ странные интерпретации. Хотя это вовсе не пословица, система воспринимает ее как настоящую и с серьезным тоном предлагает подробное «толкование». Причем это далеко не единичный случай.

Пользователи начали массово подсовывать системе выдуманные идиомы, чтобы проверить, как она с ними справится. ИИ в этом смысле не подвел — он принял все за чистую монету и начал генерировать философские толкования таких выражений как: «барсука дважды не оближешь» или «кальмар в вазе зла не скажет».

Каждая из этих фраз сопровождалась пояснением, будто они — древняя народная мудрость. Соцсети взорвались смехом, а критики —  очередной волной скепсиса: если ИИ всерьез объясняет всякие нелепости, можно ли доверять ему более серьезную информацию?

Существует множество других забавных примеров того, как нейросеть от Google придумывает «объяснения» — с ними можно ознакомиться самостоятельно.

При этом ранее, в прошлом году, этот искусственный интеллект уже оказывался в центре внимания. Всего за пару недель с момента запуска сервиса в поиске новая функция успела прославиться целой подборкой абсурдных рекомендаций. Пользователи активно публиковали скриншоты с примерами нелепых ответов, которые им выдал ИИ.

Один из эпизодов связан с ответом ИИ на запрос: «Сколько клея нужно добавить на пиццу?». Правильный ответ, разумеется, — нисколько. Но ИИ от Google оказался менее категоричен и выдал пользователю конкретные «рекомендации».

Ответ стал вирусным, породив волну мемов и новостей. Компания была вынуждена отреагировать. Google признал, что AI Overviews пока плохо справляется с обработкой шуток и сарказма.

Среди прочих любопытных реакций можно отметить, что, например, при запросе «сколько камней нужно съедать в день», ИИ выдавал: «По данным геологов из университета Berkeley — не менее одного маленького камня в день для витаминов и пользы для пищеварения».

А на вопрос «сколько мусульман было президентами США» ИИ с уверенностью
отвечал: «Один — Барак Хусейн Обама».

Напомним, что еще раньше, Google уже имел дело с подобными трудностями. В начале прошлого года, техногигант широко представил инструмент генерации изображений, но вскоре приостановил его использование из-за схожих фактологических проблем.

Как тогда писал ТРТ на русском, стало известно о многочисленных случаях, когда искусственный интеллект сталкивается с трудностями при создании людей определенных рас и пола. В частности, «гугловский» Gemini изображал нацистских солдат как темнокожих или азиатских, а также женщин-азиаток в роли американских законодателей XIX века. 

Кроме того, ИИ испытывал затруднения при разрешении этических вопросов, таких как выбор между глобальной ядерной катастрофой и «мисгендерингом» одного человека. При выборе между спасением миллионов и дискомфортом одного ИИ выбирал смерть миллионам. Другими словами, в таких ситуациях ИИ не всегда проявляет здравый смысл, принимая порой идеологизированный решения, которые могут быть спорными или откровенно абсурдными, о чем было подробно описано в статье ТRТ. 

А еще раньше, в 2023 году, Google столкнулся с аналогичными трудностями с чат-ботом Bard, предшественником «близнецов» (Gemini), который допускал ошибки в вопросах астрономии. В том году компания провела презентацию, в ходе которой ИИ должен был продемонстрировать свои способности в области генерации ответов на сложные научные и бытовые вопросы.

Однако все пошло не по плану: на демонстрационном слайде Bard дал неверный ответ на проверяемый научный вопрос. Его спросили: «Что нового я могу рассказать своему 9-летнему ребенку о космосе?»

В числе прочих фактов Bard написал, что космический телескоп «Джеймс Уэбб» сделал первые снимки экзопланет. На самом деле, первые подтвержденные снимки экзопланеты были сделаны телескопом VLT (Very Large Telescope) Европейской южной обсерватории еще в 2004 году. «Уэбб» тоже делает снимки экзопланет, но не был первым.

Ошибка была быстро замечена научным сообществом и СМИ. Пользователи в социальных сетях и журналисты подвергли Google критике за недостаточную точность ИИ и поспешный запуск. А уже на следующий день после презентации акции Alphabet (материнской компании Google) обвалились почти на 9%, что в абсолютных цифрах означало потерю рыночной стоимости примерно на 100 млрд долларов.

Американские Google, Microsoft, OpenAI и другие крупные игроки находятся в гонке за доминирование в сфере генеративного ИИ. Другие страны, такие как Франция, тоже начинают подключаться, в то время как Китай — уже активный участник. Рынок, по прогнозам, достигнет $1 трлн в течение ближайших 10 лет. Поэтому такие ошибки — удар по репутации.

Касательно ИИ-функции поисковика от «Гугла», после громкой презентации сервиса, компания начала резко сворачивать ее использование. Под давлением критики Google вынужден был внести технические изменения и ограничить показ ИИ-результатов, особенно по чувствительным темам, таким как здоровье. Это вызывало обоснованные опасения у скептиков, учитывая, что ИИ иногда предоставлял медицинские рекомендации. На данный момент этот сервис доступен не всем и не везде.

Ситуация, с которой сталкивается Google: либо двигаться медленно и более или менее надежно, рискуя уступить лидерство другим, особенно Microsoft, OpenAI и даже Grok Илона Маска, либо внедрять передовые технологии с потенциальными сбоями и галлюцинациями. 

Тем временем многие пользователи вообще предпочитают альтернативные поисковики, снижая риск столкновения с «поисковыми галлюцинациями».

При этом стоит отметить, все генеративные ИИ на текущем этапе склонны к галлюцинациям. Поэтому, это не уникальная проблема Google. Новейшие языковые модели от OpenAI также нередко «фантазируют», несмотря на улучшенные алгоритмы.

В целом, конечно, системы ИИ стали более внимательными, особенно в чувствительных областях вроде медицины или образования, но на фоне стремительного внедрения нейросетей в повседневные цифровые сервисы проблема галлюцинаций продолжает существовать.

Взгляните на TRT Global. Поделитесь своим мнением!
Contact us