Това вече изглежда не просто като технологичен проблем, а като сериозна информационна криза.

Функцията AI Overviews на Google, която показва генерирани от изкуствен интелект (ИИ) обобщения над резултатите в търсачката, може да разпространява невярна информация в мащаб, какъвто човечеството рядко е виждало досега.

Според скорошен анализ на ИИ стартъпа Oumi, изготвен по поръчка на "Ню Йорк Таймс", тези обобщения са точни в около 91% от случаите.

На пръв поглед това може да изглежда впечатляващо. Но на фона на приблизително 5 трилиона търсения годишно в Google дори сравнително малък процент грешки се превръща в колосален брой неверни отговори — десетки милиони на час и стотици хиляди в минута, сочат изчисленията в анализа.

Удобството на ИИ крие сериозен риск

Проблемът не е само в самите грешки, а и в начина, по който хората възприемат отговорите на изкуствения интелект.

Изследвания показват, че потребителите често приемат казаното от ИИ за вярно, без да го проверяват. Един доклад сочи, че едва 8% от хората реално сверяват отговора на изкуствения интелект. Друг експеримент установява, че дори когато ИИ дава погрешен отговор, потребителите продължават да му се доверяват в близо 80% от случаите — тревожна тенденция, която изследователите наричат „когнитивно предаване“.

Това прави проблема особено опасен. Големите езикови модели често говорят с уверен и авторитетен тон, дори когато представят измислена или неподкрепена информация като факт. А когато този механизъм е вграден директно в най-използваната търсачка в света, потенциалният ефект е огромен.

Какво показва тестът на Oumi

Oumi е използвала теста SimpleQA — широко разпространен индустриален бенчмарк за измерване на точността на AI системи, създаден от OpenAI.

Първият кръг от тестове е проведен през октомври и е включвал версия на AI Overviews, базирана на Gemini 2. Последвал тест през февруари е оценил функцията след преминаването ѝ към Gemini 3 — по-новата версия на модела.

И в двата случая са направени по 4326 търсения в Google.

Резултатите показват, че Gemini 3 се справя по-добре, като дава фактически коректен отговор в 91% от случаите. За сравнение, Gemini 2 е достигнал едва 85% точност.

По-добър модел, но не и решен проблем

На теория това е знак за напредък. На практика обаче анализът поставя под съмнение готовността на Google да внедрява подобни системи в реална среда, въпреки че те все още допускат значителен брой грешки.

Критиката е, че компанията е пуснала до масова употреба модел, който е бил още по-склонен към „халюцинации“ — тоест към уверено формулирани, но неверни твърдения.

Google отхвърля анализа. Говорителят на компанията Нед Адрианс заявява пред The New York Times, че изследването има „сериозни пропуски“ и не отразява какво реално търсят хората в Google.

Дори вътрешните данни на Google не изглеждат успокояващи

Според публикацията, цитираща вътрешен анализ на Gemini 3, самият модел е давал невярна информация в 28% от случаите.

Google твърди, че AI Overviews са по-точни от самия модел, защото не отговарят изолирано, а се опират на резултатите от търсенето в Google, преди да генерират обобщението.

Това обаче не премахва основния въпрос: доколко надеждна е една система, която може да изглежда убедителна дори когато греши?

Още по-тревожен проблем: отговори без реална опора в източниците

Най-сериозният извод в анализа може би не е свързан само с процента точност, а с така наречените „необосновани“ отговори.

При Gemini 2 около 37% от отговорите са били определени като ungrounded — тоест AI Overviews са цитирали сайтове, които всъщност не подкрепят предоставената информация.

При Gemini 3 този дял дори се е увеличил до 56%.

Това е особено проблематично, защото създава усещане за достоверност чрез посочени източници, които на практика не потвърждават написаното. Така за потребителите става още по-трудно да проверят дали AI казва истината.

Защо това е проблем за всички

Когато грешките идват от малък сайт или съмнителен профил в социалните мрежи, рискът е ограничен. Когато обаче неточностите идват от Google — мястото, към което милиарди хора се обръщат за бърз отговор — последиците могат да бъдат много по-големи.

Именно затова критиците предупреждават, че AI Overviews не са просто удобна нова функция, а потенциален ускорител на масова дезинформация.