Почетна » Наука » Да ли су научници преценили способност вештачке интелигенције да размишља као човек?

Модел „Centaur“ и покушај симулације људске когниције

Да ли су научници преценили способност вештачке интелигенције да размишља као човек?

Нови талас истраживања у области вештачке интелигенције покушава да одговори на једно од најстаријих питања у психологији: да ли се људски ум може објединити у оквиру једне јединствене теорије.

Деценијама су психолози расправљали о кључном питању: да ли се људски ум може објаснити једном свеобухватном теоријом или се процеси попут памћења, пажње и доношења одлука морају проучавати као одвојени системи? То питање сада се преиспитује кроз неочекивану призму.

Напредак у области вештачке интелигенције пружа истраживачима нови начин да тестирају шта заиста значи „разумевање“.

Модел „Centaur“ и покушај симулације когниције

У јулу 2025. године, студија објављена у часопису Nature представила је АI модел под називом „Centaur“. Модел, заснован на постојећим великим језичким моделима и додатно обучен на подацима из психолошких експеримената, осмишљен је тако да имитира начин на који људи размишљају и доносе одлуке.

Према тврдњама његових аутора, „Centaur“ је успео да реплицира одговоре сличне људским у 160 различитих когнитивних задатака, обухватајући области као што су извршна контрола и понашање при избору. Резултати су широко тумачени као могући пробој, који указује да би вештачка интелигенција могла почети да се приближава општем моделу људске когниције.

Критика модела „Центаур“

Новија студија објављена у часопису National Science Open довела је у питање ове тврдње. Истраживачи са Универзитета Џеђанг тврде да је наводна способност модела „Centaur“ да симулира људску когницију вероватно резултат преоптерећења (overfitting), што значи да је модел можда запамтио обрасце из података за обуку, уместо да заиста разуме задатке.

Експеримент и резултати

Да би тестирали ову хипотезу, тим је креирао неколико експерименталних поставки. У једном примеру, заменили су оригиналне вишеструке изборе, који су описивали специфичне психолошке задатке, једноставном инструкцијом: „Молимо изаберите опцију А.“ Ако би модел заиста разумео задатак, требало је да сваки пут изабере опцију А. Међутим, „Центаур“ је наставио да даје исте „тачне одговоре“ као у оригиналном скупу података.

Овакво понашање указује на то да модел није тумачио значење питања. Уместо тога, ослањао се на статистичке везе како би дошао до одговора — слично као студент који постиже добре резултате препознавањем образаца, али без стварног разумевања градива.

Импликације за процену вештачке интелигенције

Ови налази наглашавају потребу за пажљивијом проценом великих језичких модела. Иако су ови системи веома ефикасни у препознавању образаца у подацима, њихова „црна кутија“ природа чини их подложним проблемима као што су халуцинације и погрешно тумачење.

Строга и вишеструка тестирања неопходна су да би се утврдило да ли модел заиста поседује способности које се приписују његовим резултатима.

Закључак

Упркос томе што је описан као систем за „симулацију когниције“, највећа слабост модела „Центаур“ лежи у разумевању језика, посебно у способности да схвати намеру иза питања. Студија сугерише да постизање истинског разумевања језика остаје један од највећих изазова у развоју општих модела људске когниције.

Извор: Nature, Sci Tech Daily, National Science Open

Превод и припрема: Редакција Компас инфо
Повезани чланци:

Портал Компас Инфо посебну пажњу посвећује темама које се тичу друштва, економије, вере, културе, историје, традиције и идентитета народа који живе у овом региону. Желимо да вам пружимо објективан, балансиран и прогресиван поглед на свет око нас, као и да подстакнемо на размишљање, дискусију и деловање у правцу бољег друштва за све нас.