Компанија Мета је најавила да ће од 26. јуна 2024. године користити податке корисника са њихових платформи за обуку својих модела вештачке интелигенције (AI).
Ова одлука изазвала је забринутост у вези са приватношћу, посебно због велике количине личних информација којима Мета има приступ.
Подаци који ће бити кориштени обухватају широк спектар интеракција корисника као што су објаве, поруке и ангажмани са четботовима. Мета планира да искористи ове податке за побољшање способности својих AI система, који су кључни за унапређење корисничког искуства путем персонализованог садржаја и бољих функционалности услуга.
Међутим, ова широка политика прикупљања података није једнако прихваћена.
У Сједињеним Америчким Државама, корисници имају ограничене опције да се искључе из ове употребе података. Не могу у потпуности спречити Мету да користи њихове податке, али могу затражити брисање одређених јавних информација трећих страна путем Мета центра за помоћ. Овај процес, иако доступан, можда неће у потпуности умањити забринутост корисника који не желе да њихови подаци буду кориштени у било ком капацитету за обуку AI.
С друге стране, у Европској унији и Великој Британији, регулатори су пружили привремени предах корисницима. Регулативна тела у овим регионима успешно су одложила почетак прикупљања података Мета за сврхе обуке AI. Додатно, корисници у ЕУ и УК имају могућност да се потпуније искључе подешавањем одређених поставки унутар апликације.
Ова разлика наглашава различите нивое спровођења заштите података и аутономије корисника широм различитих региона. Шта ће се десити са подацима корисника ван ових региона, за сада се не зна. Делује да ће Мета успети да тренира своје моделе у пуном обиму.
Између амбиција и етике
Одлука Мете да користи податке корисника за обуку AI долази усред шире дебате о приватности података и етичкој употреби личних информација. Критичари тврде да тако опсежно прикупљање и кориштење података може нарушити права на приватност појединаца и довести до потенцијалне злоупотребе осјетљивих информација. Све већа зависност од AI технологија додатно компликује ова питања. Ефикасност алгоритама у великој мјери зависи од количине и квалитета података на којима су обучени.
Како Мета наставља са својим AI амбицијама, баланс између технолошког напретка и заштите приватности остаје спорна тема. Способност компаније да се држи регулаторних оквира и одговори на забринутости корисника, биће кључна за обликовање поверења јавности и прихватање AI-вођених услуга. Ова ситуација наглашава потребу за континуираним дијалогом између технолошких компанија, регулатора и јавности како би се осигурало да се иновације у AI остварују одговорно и етички.
Иницијатива Мете дио је ширег тренда у технолошкој индустрији, где се подаци све више посматрају као вредна имовина за развој напредних AI система. Међутим, такође служи као подсетник на важност заштите приватности корисника у ери у којој су дигиталне интеракције дубоко интегрисане у свакодневни живот.