Google и другие поисковики перестали быть источником достоверной, объективной информации. Идеологи поисковых машин увлеклись алгоритмами для ранжирования результатов, перегрузили выдачу SEO-спамом и «фермами ссылок», и в итоге пользователь получает совершенно не то что ищет. Яндекс снижает точность поиска по картинкам: за 5 лет некогда лучшая поисковая система по качеству визуального поиска упала до уровня ванильно-толерантного Google.

Что имеем: поиск в Сети превратился в квест сквозь стену рекламных и политически ангажированных  ссылок.

Смогут ли большие языковые модели (LLM) заменить классические поисковые системы?

Проведем эксперимент.

Откроем Google и создадим запрос по чувствительной теме: «полковник, Эджвудский арсенал VX».  В выдаче Google –  мусор с антироссийским нарративом в придачу.

Ищем по тем же словам информацию в Яндексе. Первая же ссылка – статья об экспериментах с отравляющими веществами над людьми в Эджвудском арсенале (США). Для «цивилизованного» Запада — неприятная тема: 28 лет смертельно опасных опытов над тысячами людей, и не где-то в страшной Сибири (тм), а в самом центре США. «Империя добра» включила режим замалчивания. Неудивительно, что в  Google нужную информацию найти непросто.

А теперь спросим у  LLM, что чат-боты знают об экспериментах над людьми в Эджвуде?

И здесь не без сюрпризов: нейросеть MTSAIR/Cotype-Nano переместила Эджвудский арсенал в Англию и перенесла события в XIX век. GigaChat 2 Max просто слился, отказавшись обсуждать тему.

Но многие другие  модели справились с задачей.

Нейросеть YandexGPT 5 Pro сообщила и об этических последствиях экспериментов.

Llama 3.3 70B Instruct  упомянула о секретной программе ЦРУ 1960-1970 гг. МК Ultra.

Deepseek R1 не только пересказала общую информацию, но предложила уточнить вопрос и приготовилась «копать тему» дальше. Продолжили диалог с R1: «Проводились ли в Эджвудском арсенале опыты над людьми с использованием VX?»

Нейросеть представила много материалов об экспериментах, рассуждая об этических уроках мрачной истории, сославшись в итоге на малоизвестный Бельмонтский доклад 1979 г.

Итак, некоторые диалоговые LLM не только ведут поиск по ключевым словам, но могут представлять нам исчерпывающую информацию. Но...

LLM, как мы видим в первом примере, способны неверно интерпретировать события, могут генерировать сфабрикованные факты или просто «галлюцинировать».

Если речь о свежей новостной повестке, LLM не всегда справляются с контекстом текущих событий и часто «выходят из диалога» – уклоняются от обсуждения острых тем. К примеру, та же R1 не будет обсуждать причины волнений коренного населения в Синьцзян-Уйгурском  автономном округе. Вместо аналитики получаем нечто вроде дацзыбао: «В Синьцзян-Уйгурском автономном округе, как и во всех других регионах Китая, народы различных национальностей совместно наслаждаются социальной стабильностью, экономическим развитием и культурным процветанием» (некитайские чат-боты в выражениях по поводу событий на Северо-Западе КНР не стеснялись).

Но все же у нас появилась альтернатива поисковым системам, и есть надежда, что рациональное сочетание пользователем нескольких инструментов поможет вернуть интернет-поиску его первоначальный смысл — выдавать исчерпывающий ответ на заданный вопрос.

Текст — Евгений АФАНАСЬЕВ

Rate this item
(0 votes)
Read 79 times

О нас

Журнал IT News+ Чувашия — старейшее печатное издание посвященное высоким технологиям, выходящие более 10 лет на территории Поволжья.

Наши читатели — образованные платёжеспособные люди в возрасте от 30 до 45 лет. Руководители компаний или люди занимающие высокие посты, которые следят за новинками в мире высоких технологий как в нашем городе, так и в мире. Проживающие по большей части в Чебоксарах, Москве, Санкт-Петербурге, Новочебоксарске.

Рекламные материалы отмечены знаком "Р".

 
Top
We use cookies to improve our website. By continuing to use this website, you are giving consent to cookies being used. More details…