Како заузимање свесног приступа вештачкој интелигенцији смањује пристрасне скупове података

Пристрасни скупови података и етичка АИ

Rešenja zasnovana na veštačkoj inteligenciji trebaju skupove podataka da bi bila efikasna. Стварање тих скупова података препуно је имплицитног проблема пристрасности на систематском нивоу. Svi ljudi pate od pristrasnosti (i svesnih i nesvesnih). Predrasude mogu imati bilo koji broj oblika: geografski, lingvistički, društveno-ekonomski, seksistički i rasistički. А те систематске предрасуде спајају се у податке, што може резултирати производима вештачке интелигенције који одржавају и повећавају пристрасност. Организацијама је потребан пажљив приступ како би ублажиле пристрасност која се увлачи у скупове података.

Примери који илуструју проблем пристрасности

Jedan značajan primer pristrasnosti ovog skupa podataka koji je u to vreme izazvao mnogo negativne štampe bilo je rešenje za čitanje životopisa koje je favorizovalo muške kandidate u odnosu na žene. To je zato što su skupovi podataka alata za zapošljavanje razvijeni koristeći biografije iz protekle decenije kada su većina kandidata bili muškarci. Podaci su bili pristrasni i rezultati su odražavali tu pristrasnost. 

Још један широко пријављен пример: На годишњој Гоогле-овој И/О конференцији за програмере, Гоогле је поделио преглед алата за помоћ у дерматологији на АИ-у који помаже људима да разумеју шта се дешава са питањима везаним за њихову кожу, косу и нокте. Asistent za dermatologiju naglašava kako AI evoluira kako bi pomogao u zdravstvenoj zaštiti - ali je takođe istakao potencijal da se pristrasnost uvuče u AI nakon kritika da alat nije adekvatan za ljude u boji.

Kada je Google najavio alat, kompanija je primetila:

Da bismo bili sigurni da gradimo za sve, naš model uzima u obzir faktore kao što su starost, pol, rasa i tipovi kože — od blede kože koja ne preplanuli do smeđe kože koja retko gori.

Google, Korišćenje veštačke inteligencije za pomoć u pronalaženju odgovora na uobičajena stanja kože

Ali članak u Vice-u kaže da Google nije uspeo da koristi inkluzivni skup podataka:

Da bi izvršili zadatak, istraživači su koristili skup podataka za obuku od 64,837 slika 12,399 pacijenata koji se nalaze u dve države. Ali od hiljada prikazanih stanja kože, samo 3.5 odsto dolazi od pacijenata sa tipovima kože V i VI po Fitzpatrick-u - onima koji predstavljaju smeđu kožu i tamno smeđu ili crnu kožu, respektivno. Prema studiji, 90 odsto baze podataka činili su ljudi svetle puti, tamnije bele puti ili svetlo smeđe puti. Kao rezultat pristrasnog uzorkovanja, dermatolozi kažu da bi aplikacija mogla preterano ili nedovoljno dijagnostikovati ljude koji nisu belci.

Вице, Гооглеова нова апликација за дерматологију није дизајнирана за људе са тамнијом кожом

Google je odgovorio rekavši da će poboljšati alat pre nego što ga zvanično objavi:

Наш алат за помоћ у дерматологији на АИ-у врхунац је више од три године истраживања. Pošto je naš rad predstavljen u Nature Medicine, nastavili smo da razvijamo i usavršavamo našu tehnologiju ugradnjom dodatnih skupova podataka koji uključuju podatke koje su donirale hiljade ljudi, i milione više odabranih slika o problemima kože.

Google, Korišćenje veštačke inteligencije za pomoć u pronalaženju odgovora na uobičajena stanja kože

Колико год се надали да би програми вештачке интелигенције и машинског учења могли исправити ове предрасуде, реалност остаје: они су само такви паметан пошто су њихови скупови података чисти. У ажурирању старе програмске изреке смеће у ђубре, АИ решења су јака само онолико колико је квалитет њихових скупова података од почетка. Bez ispravke od programera, ovi skupovi podataka nemaju iskustvo u pozadini da se sami poprave – jer jednostavno nemaju drugi referentni okvir.

Одговорна изградња скупова података је срж свега етичка вештачка интелигенција. А људи су срж решења. 

Pažljiva AI je etička AI

Pristrasnost se ne dešava u vakuumu. Neetički ili pristrasni skupovi podataka potiču od pogrešnog pristupa tokom faze razvoja. Način borbe protiv grešaka pristrasnosti je usvajanje odgovornog pristupa usredsređenog na čoveka koji mnogi u industriji nazivaju Mindful AI. Свесна АИ има три критичне компоненте:

1. Pažljiva AI je usredsređena na čoveka

Од почетка пројекта АИ, у фазама планирања, потребе људи морају бити у центру сваке одлуке. A to znači svi ljudi - ne samo podskup. Због тога се програмери морају ослонити на разнолик тим људи са глобалним седиштем у обучавању апликација вештачке интелигенције да буду инклузивне и без пристрасности.

Crowdsourcing skupova podataka iz globalnog, raznolikog tima osigurava da se pristrasnosti rano identifikuju i filtriraju. Они различитих националности, старосних група, полова, нивоа образовања, социо-економског порекла и локација могу лакше уочити скупове података који фаворизују један скуп вредности над другим, чиме се уклањају нежељене пристрасности.

Погледајте гласовне апликације. Приликом примене свесног приступа вештачке интелигенције и искоришћавања моћи глобалног фонда талената, програмери могу узети у обзир језичке елементе као што су различити дијалекти и акценти у скуповима података.

Uspostavljanje okvira dizajna usredsređenog na čoveka od početka je ključno. To ide dug put ka tome da se obezbedi da generisani, kurirani i označeni podaci ispunjavaju očekivanja krajnjih korisnika. Ali takođe je važno držati ljude u toku tokom celog životnog ciklusa razvoja proizvoda. 

Ljudi u petlji takođe mogu pomoći mašinama da stvore bolje iskustvo veštačke inteligencije za svaku specifičnu publiku. У Пацтера ЕДГЕ -у, наши пројектни тимови за податке о АИ, који се налазе глобално, разумеју како различите културе и контексти могу утицати на прикупљање и прикупљање поузданих података о обуци вештачке интелигенције. Imaju neophodne alate koji su im potrebni za označavanje problema, nadgledanje i rešavanje problema pre nego što rešenje zasnovano na veštačkoj inteligenciji počne da radi.

AI čoveka u petlji je projektna „zaštitna mreža“ koja kombinuje snage ljudi – i njihovo raznoliko poreklo sa brzom računarskom snagom mašina. Ову сарадњу између човека и вештачке интелигенције потребно је успоставити од почетка програма тако да пристрасни подаци не чине основу у пројекту. 

2. Pažljiva veštačka inteligencija je odgovorna

Biti odgovoran znači osigurati da sistemi veštačke inteligencije budu oslobođeni predrasuda i da su zasnovani na etici. Ради се о томе да водите рачуна о томе како, зашто и где се подаци стварају, како их синтетишу АИ системи и како се користе при доношењу одлука, одлука које могу имати етичке импликације. Један од начина на који то предузеће може учинити је да ради са недовољно заступљеним заједницама како би биле инклузивније и мање пристрасне. У области означавања података, нова истраживања истичу како модел са више задатака са више напомена који третира ознаке сваког напомена као засебан подзадатак може помоћи у ублажавању потенцијалних проблема својствених типичним основним методама истине где неслагања у напоменама могу бити последица недовољне заступљености и може бити занемарен у скупљању напомена на једној темељној истини. 

3. Поуздано

Поузданост потиче од транспарентног пословања и објашњења о томе како се АИ модел обучава, како функционише и зашто препоручују исходе. Предузећу је потребна стручност са локализацијом АИ како би својим клијентима омогућило да своје апликације вештачке интелигенције учине инклузивнијим и персонализованим, поштујући критичне нијансе на локалном језику и корисничка искуства која могу учинити или сломити кредибилитет решења за вештачку интелигенцију из једне земље у другу . Na primer, preduzeće treba da dizajnira svoje aplikacije za personalizovane i lokalizovane kontekste, uključujući jezike, dijalekte i akcente u aplikacijama zasnovanim na glasu. На тај начин, апликација доноси исти ниво софистицираности гласовног искуства у сваки језик, од енглеског до недовољно заступљених језика.

Pravednost i raznolikost

Na kraju, svesna veštačka inteligencija obezbeđuje da su rešenja izgrađena na poštenim i raznovrsnim skupovima podataka gde se posledice i uticaj određenih ishoda prate i procenjuju pre nego što rešenje izađe na tržište. С пажњом и укључивањем људи у сваки део развоја решења, помажемо да модели вештачке интелигенције остану чисти, минимално пристрасни и што етичнији.

Шта ви мислите?

Ова страница користи Акисмет како би смањила нежељену пошту. Сазнајте како се ваш коментар обрађује.