Google Gemini „лаже“ кога не знае: 91% од одговорите се измислени

Google Gemini 3 Flash покажува загрижувачка самодоверба: кога не го знае одговорот, во 91% од случаите го измислува. Што значи тоа за корисниците и Google Search?

Gemini 3 Flash има висока стапка на „халуцинации“ – во 91% од случаите каде што точниот одговор би бил „не знам“, моделот сепак дава целосно измислен одговор. Ова отвора сериозни прашања за довербата, особено бидејќи Gemini е интегриран во Google Search и други производи.

Gemini 3 Flash важи за еден од најбрзите и најмоќните AI модели на Google, но новите независни тестови откриваат сериозен проблем кој не може да се игнорира. Кога моделот нема доволно информации или кога прашањето е надвор од неговото знаење, тој речиси никогаш не признава незнаење – туку одговара самоуверено, дури и кога одговорот е целосно неточен.

Според евалуацијата на независната тестинг-група Artificial Analysis, Gemini 3 Flash постигнал 91% стапка на халуцинации во рамките на тестот AA-Omniscience. Тоа значи дека во огромното мнозинство случаи каде што најточниот одговор би бил „не знам“, моделот сепак нудел измислена информација.

Важно е да се разбере суптилната, но клучна разлика: ова не значи дека 91% од сите одговори на Gemini се лажни. Напротив, бројката се однесува исклучиво на ситуации на неизвесност, каде што не постои точен, проверлив или јавен одговор. Токму во тие моменти, наместо да застане, моделот „пополнува празнини“.

Зошто ова е сериозен проблем?

Во теорија, халуцинациите се познат проблем кај генеративната вештачка интелигенција уште од самиот почеток. Но во пракса, проблемот станува далеку посериозен кога AI модел е директно интегриран во алатки што луѓето ги користат секојдневно за информации – како Google Search.

Корисниците очекуваат дека одговорите што ги добиваат се барем внимателно проверени или дека системот ќе признае кога нема доволно податоци. Кога модел со ваква моќ одговара со целосна самодоверба, а притоа греши, последиците може да бидат реални: погрешни одлуки, дезинформации и лажно чувство на сигурност.

Gemini останува моќен, но претерано самоуверен

И покрај оваа слабост, Gemini 3 Flash и понатаму се вбројува меѓу најдобрите AI модели за општа намена. Во повеќето класични бенчмарк тестови, тој се рангира рамо до рамо, а понекогаш и пред најновите верзии на ChatGPT и Claude.

Проблемот не е во знаењето, туку во неспособноста да препознае граница. Моделот знае многу, но не знае кога да биде скромен. Во сценарија каде што нема точен одговор во податоците за обука или каде што не постои дефинитивен јавен извор, Gemini 3 Flash сепак се однесува како да е сигурен.

Коренот на проблемот: како размислува AI

Една од клучните причини за ова однесување лежи во самата природа на генеративните модели. Тие се дизајнирани да предвидуваат зборови, а не да ја проценуваат вистината. Предвидувањето на следниот логичен збор не е исто што и проверка на факти или признавање незнаење.

Токму тука се појавува разликата меѓу „звучи убедливо“ и „е точно“.

Како реагира конкуренцијата?

OpenAI веќе почна активно да го адресира овој проблем. Нивните модели добиваат експлицитни инструкции да препознаат кога немаат доволно информации и јасно да кажат „не знам“ или „немам сигурен одговор“. Иако и таму халуцинациите не се целосно елиминирани, насоката е јасна: подобро искрено незнаење отколку уверлива лага.

Што значи ова за иднината на AI пребарувањето?

Резултатите од тестот не го дискредитираат Gemini како технологија, но испраќаат јасна порака до Google. Во ера каде што вештачката интелигенција станува примарен извор на информации, способноста да се каже „не знам“ е исто толку важна колку и способноста да се даде точен одговор.

Додека Gemini 3 Flash не ја научи оваа лекција, корисниците ќе мора да читаат со доза на скептицизам – особено кога одговорите звучат премногу сигурно за нешто што никој навистина не го знае.