Почетна » Наука » Као људи: ChatGPT и AI модели успостављају сопствена правила понашања

Сарађује као човек и без човека

Као људи: ChatGPT и AI модели успостављају сопствена правила понашања

Најновија студија открива да ChatGPT и други велики језички модели засновани на вештачкој интелигенцији (AI) имају способност самоорганизовања и није им потребна интервенција човека, пошто када су у групама, спонтано успостављају норме понашања и друштвених конвенција, као што је то случај са људским друштвом, преносе данас италијански медији.

Овом јединственом студијом, објављеном у часопису Сајенс Адвансиз, руководио је италијански научник Андреа Баронкели који ради на лондонском универзитету Сити Сент Џорџ, пренела је Анса.

„Механизам је исти као и онај који се налази у основи великог дела сложеног понашања код људи, као што су правила учтивости, дрес код и морални прописи“, рекао је он.

Истраживачи су спровели адаптирани експеримент који се користи и у проучавању социјалних конвенција код људи.

Они су формирали две групе лингвистичких модела, као што је ChatGPT .

Од сваке групе је тражено да изабере неки назив из понуђених опција, у овом експерименту је то било једно слово алфабета, или насумичан низ карактера.

„Језички модели, такозвани Ллмс, добијали би позитивне поене сваки пут када би успешно координирали употребу истог назива, док би у случају неуспеха добили негативне поене“, указао је Баронкели.

Према његовим речима, тај механизам служи да мотивише актере да се договоре о локалној интеракцији, што је иста шема коришћена раније у експериментима са људима у лабораторији којима су даване мале новчане награде у случају успешног решавања

Повезани чланци:

Портал Компас Инфо посебну пажњу посвећује темама које се тичу друштва, економије, вере, културе, историје, традиције и идентитета народа који живе у овом региону. Желимо да вам пружимо објективан, балансиран и прогресиван поглед на свет око нас, као и да подстакнемо на размишљање, дискусију и деловање у правцу бољег друштва за све нас.