10 Top Resources To Build An Ethical AI Framework
10 Top Resources To Build An Ethical AI Framework
com/searchenterpriseai/feature/Top-resources-to-build-an-
ethical-AI-framework
By
George Lawton
Enterprises must also instill AI ethics into those who develop and use AI
tools and technologies. Open communication, educational resources, and
enforced guidelines and processes to ensure the proper use of AI,
Roselund advised, can further bolster an internal AI ethics framework that
addresses generative AI.
DOWNLOAD 1
Download this entire guide for FREE now!
Sever
al issues need to be considered and overcome when devising and establishing an AI
ethics framework.
Top resources to shape an ethical AI framework
There are several standards, tools, techniques and other resources to help
shape a company's internal ethical AI framework. The following are listed
alphabetically:
Enterprises and data scientists will also need to better solve issues of bias and
inequality in training data and machine learning algorithms. In addition, issues
relating to AI system security, including cyber attacks against large language models,
will require continuous engineering and design improvements to keep pace with
increasingly sophisticated criminal adversaries.
"AI ethics will only grow in importance," Gupta surmised, "and will experience
many more overlaps with adjacent fields to strengthen the contributions it can
make to the broader AI community." In the near future, Pallath sees AI evolving
toward enhancing human capabilities in collaboration with AI technologies rather
than supplanting humans entirely. "Ethical considerations," he explained, "will revolve
around optimizing AI's role in augmenting human creativity, productivity and
decision-making, all while preserving human control and oversight."
Next Steps
History of generative AI innovations spans 9 decades
Related Resources
Kako generativna umjetna inteligencija stječe jače uporište u poduzeću, rukovoditelji su pozvani da
posvete veću pozornost etici umjetne inteligencije -- što je veliki izazov jer se mnoga pitanja odnose
na pristranost, transparentnost, objašnjivost i povjerenje. Kako bi rasvijetlili različite nijanse etičke
umjetne inteligencije, vladine agencije, regulatori i neovisne skupine razvijaju okvire, alate i resurse
za etičku umjetnu inteligenciju.
"Najutjecajniji okviri ili pristupi rješavanju etičkih pitanja umjetne inteligencije ... uzimaju u obzir sve
aspekte tehnologije - njezinu upotrebu, rizike i potencijalne rezultate", rekao je Tad Roselund,
direktor i viši partner u Boston Consulting Group (BCG) . Mnoge tvrtke razvoju etičkih okvira umjetne
inteligencije pristupaju isključivo s pozicije temeljene na vrijednostima, dodao je. Važno je zauzeti
holistički etički pristup umjetnoj inteligenciji koji integrira strategiju s procesnim i tehničkim
kontrolama, kulturnim normama i upravljanjem. Ova tri elementa etičkog okvira za umjetnu
inteligenciju mogu pomoći u uspostavljanju odgovornih politika i inicijativa za umjetnu inteligenciju.
A sve počinje uspostavljanjem skupa načela oko upotrebe umjetne inteligencije.
"Često su tvrtke i vođe usko usredotočeni na jedan od ovih elemenata kada se moraju usredotočiti na
sve njih", obrazložio je Roselund. Bavljenje bilo kojim elementom može biti dobra polazna točka, ali
uzimajući u obzir sva tri elementa - kontrole, kulturne norme i upravljanje - tvrtke mogu osmisliti
sveobuhvatni etički okvir umjetne inteligencije. Ovaj pristup je posebno važan kada je riječ o
generativnoj umjetnoj inteligenciji i njenoj sposobnosti da demokratizira korištenje umjetne
inteligencije.
Poduzeća također moraju usaditi etiku umjetne inteligencije onima koji razvijaju i koriste alate i
tehnologije umjetne inteligencije. Otvorena komunikacija, obrazovni resursi i nametnute smjernice i
procesi kako bi se osigurala ispravna upotreba umjetne inteligencije, savjetovao je Roselund, mogu
dodatno ojačati interni etički okvir umjetne inteligencije koji se bavi generativnom umjetnom
inteligencijom.
Postoji nekoliko standarda, alata, tehnika i drugih izvora koji pomažu u oblikovanju internog etičkog
okvira AI tvrtke. Sljedeće je navedeno abecednim redom:
2. Berkman Klein Center for Internet & Society na Sveučilištu Harvard potiče istraživanje velikih
pitanja povezanih s etikom i upravljanjem umjetnom inteligencijom. Pridonijela je dijalogu o kvaliteti
informacija, utjecala na donošenje politika o algoritmima u kaznenom pravosuđu, podržala razvoj
okvira upravljanja umjetnom inteligencijom, proučavala algoritamsku odgovornost i surađivala s
dobavljačima umjetne inteligencije.
3. CEN-CENELEC Zajednički tehnički odbor za umjetnu inteligenciju (JTC 21) tekuća je inicijativa EU-a
za različite standarde odgovorne umjetne inteligencije. Grupa planira proizvesti standarde za
europsko tržište i informirati o zakonodavstvu, politikama i vrijednostima EU-a. Također planira
specificirati tehničke zahtjeve za karakterizaciju transparentnosti, robusnosti i točnosti u sustavima
umjetne inteligencije.
4. Priručnik Instituta za tehnologiju, etiku i kulturu (ITEC) rezultat je suradnje Markkula centra za
primijenjenu etiku Sveučilišta Santa Clara i Vatikana na razvoju praktičnog, postepenog plana za
tehnološku etiku. Priručnik uključuje model zrelosti od pet stupnjeva, s određenim mjerljivim
koracima koje poduzeća mogu poduzeti na svakoj razini zrelosti. Također promiče operativni pristup
za provedbu etike kao stalne prakse, slično DevSecOps-u za etiku. Temeljna ideja je okupiti pravne,
tehničke i poslovne timove zajedno tijekom ranih faza etičke umjetne inteligencije kako bi se
iskorijenile pogreške u vrijeme kada ih je mnogo jeftinije popraviti nego nakon odgovorne
implementacije umjetne inteligencije.
5. ISO/IEC 23894:2023 IT-AI-Smjernice za standard upravljanja rizikom opisuje kako organizacija može
upravljati rizicima koji se posebno odnose na umjetnu inteligenciju. Može pomoći u standardizaciji
tehničkog jezika koji karakterizira temeljna načela i kako se ta načela primjenjuju na razvoj, pružanje
ili ponudu AI sustava. Također pokriva politike, postupke i prakse za procjenu, tretiranje, praćenje,
pregled i bilježenje rizika. Visoko je tehnički i usmjeren na inženjere, a ne na poslovne stručnjake.
6. NIST AI Risk Management Framework (AI RMF 1.0) vodi vladine agencije i privatni sektor u
upravljanju novim rizicima AI i promicanju odgovorne AI. Abhishek Gupta, osnivač i glavni istraživač
na Institutu za etiku umjetne inteligencije u Montrealu, ukazao je na dubinu okvira NIST-a, posebno
njegovu specifičnost u provedbi kontrola i politika za bolje upravljanje sustavima umjetne
inteligencije unutar različitih organizacijskih konteksta.
7. Nvidia/NeMo Guardrails pruža fleksibilno sučelje za definiranje specifičnih tračnica ponašanja koje
botovi trebaju slijediti. Podržava jezik za modeliranje Colang. Jedan glavni znanstvenik za podatke
rekao je da njegova tvrtka koristi alate otvorenog koda kako bi spriječila chatbot za podršku na web
stranici odvjetnika da pruži odgovore koji bi se mogli protumačiti kao pravni savjet.
8. Stanfordski institut za umjetnu inteligenciju usmjerenu na čovjeka (HAI) pruža stalna istraživanja i
smjernice za najbolju praksu za AI usmjerenu na čovjeka. Jedna rana inicijativa u suradnji sa Stanford
Medicine je Responsible AI for Safe and Equitable Health, koja se bavi etičkim i sigurnosnim pitanjima
koja okružuju AI u zdravstvu i medicini.
9. "Towards unified goals for self-reflective AI" je rad Matthiasa Samwalda, Roberta Praasa i
Konstantina Hebenstreita koji koristi Sokratov pristup identificiranju temeljnih pretpostavki,
proturječja i pogrešaka kroz dijalog i propitivanje o istinitosti, transparentnosti, robusnosti i
usklađenosti etička načela. Jedan od ciljeva je razviti meta-sustave umjetne inteligencije u kojima se
dva ili više komponentnih modela umjetne inteligencije nadopunjuju, kritiziraju i poboljšavaju
njihove međusobne performanse.
10. Bijela knjiga Svjetskog ekonomskog foruma "The Presidio Recommendations on Responsible
Generative AI" uključuje 30 "akcijski orijentiranih" preporuka za "navigaciju složenostima AI-a i etički
iskorištavanje njegovog potencijala". Uključuje odjeljke o odgovornom razvoju i objavljivanju
generativne umjetne inteligencije, otvorenim inovacijama i međunarodnoj suradnji te društvenom
napretku.
Resursi etičke umjetne inteligencije dobra su polazna točka za krojenje i uspostavljanje okvira etičke
umjetne inteligencije tvrtke i pokretanje odgovornih politika i inicijativa za umjetnu inteligenciju.
Sljedeći najbolji primjeri iz prakse mogu pomoći u postizanju ovih ciljeva:
• Imenovati voditelja etike. Postoje slučajevi kada mnogi ljudi s dobrim namjerama sjede za stolom i
raspravljaju o raznim etičkim pitanjima umjetne inteligencije, ali ne uspiju uputiti informirane,
odlučne pozive na akciju, primijetio je Roselund. Jedan vođa kojeg je imenovao CEO može voditi
odluke i radnje.
• Prilagodite etički okvir umjetne inteligencije. Generativni etički okvir umjetne inteligencije trebao bi
biti prilagođen vlastitom jedinstvenom stilu, ciljevima i rizicima tvrtke, bez guranja četvrtastog klina u
okruglu rupu. "Preopterećena implementacija programa", rekao je Gupta, "u konačnici dovodi do
preranog prekida zbog neučinkovitosti, prekoračenja troškova i iscrpljenosti osoblja zaduženog za
postavljanje programa." Uskladite etičke programe umjetne inteligencije s postojećim tijekovima
rada i strukturama upravljanja. Gupta je ovaj pristup usporedio s postavljanjem pozornice za
uspješno presađivanje organa.
• Uspostavite etička mjerenja umjetne inteligencije. Da bi zaposlenici prihvatili etički okvir umjetne
inteligencije i odgovorne politike umjetne inteligencije, tvrtke moraju biti transparentne u pogledu
svojih namjera, očekivanja i korporativnih vrijednosti, kao i svojih planova za mjerenje uspjeha.
"Zaposlenike ne samo da treba upoznati s ovim novim etičkim naglascima, već ih također treba
mjeriti u njihovoj prilagodbi i nagraditi za prilagodbu novim očekivanjima", objasnio je Brian Green,
direktor tehnološke etike u Centru za primijenjenu etiku Markkula.
• Budite otvoreni za različita mišljenja. Ključno je uključiti raznoliku skupinu glasova, uključujući
etičare, terenske stručnjake i one u okolnim zajednicama na koje bi implementacija umjetne
inteligencije mogla utjecati. "Radeći zajedno, stječemo dublje razumijevanje etičkih pitanja i stajališta
te razvijamo sustave umjetne inteligencije koji su uključivi i poštuju različite vrijednosti", rekao je Paul
Pallath, potpredsjednik prakse primijenjene umjetne inteligencije u konzultantskoj tvrtki Searce za
tehnologiju.
• Zauzmite holističku perspektivu. Zakonitosti nisu uvijek u skladu s etikom, upozorio je Pallath.
Ponekad pravno prihvatljive radnje mogu izazvati etičke probleme. Etičko donošenje odluka mora se
baviti i pravnim i moralnim aspektima. Ovaj pristup osigurava da AI tehnologije ispunjavaju zakonske
zahtjeve i podržavaju etička načela kako bi se zaštitila dobrobit pojedinaca i društva.
Istraživači, voditelji poduzeća i regulatori još uvijek istražuju etička pitanja u vezi s odgovornom
umjetnom inteligencijom. Morat će se riješiti pravni izazovi koji uključuju zaštitu autorskih prava i
intelektualnog vlasništva, predvidio je Gupta. Za rješavanje problema povezanih s generativnom
umjetnom inteligencijom i halucinacijama trebat će više vremena jer su neki od tih potencijalnih
problema svojstveni dizajnu današnjih sustava umjetne inteligencije.
Poduzeća i znanstvenici koji se bave podacima također će morati bolje riješiti pitanja pristranosti i
nejednakosti u obučavanju podataka i algoritama strojnog učenja. Osim toga, pitanja koja se odnose
na sigurnost sustava umjetne inteligencije, uključujući kibernetičke napade na velike jezične modele,
zahtijevat će stalna poboljšanja inženjeringa i dizajna kako bi se održao korak sa sve sofisticiranijim
kriminalnim protivnicima.
"Važnost etike umjetne inteligencije samo će rasti", pretpostavio je Gupta, "i doživjet će mnogo više
preklapanja sa susjednim područjima kako bi se ojačao doprinos koji može dati široj zajednici
umjetne inteligencije." Pallath u bliskoj budućnosti vidi da će se umjetna inteligencija razvijati prema
poboljšanju ljudskih sposobnosti u suradnji s tehnologijama umjetne inteligencije, umjesto da u
potpunosti zamijeni ljude. "
Etička razmatranja", objasnio je, "vrtjet će se oko optimiziranja uloge umjetne inteligencije u
povećanju ljudske kreativnosti, produktivnosti i donošenja odluka, uz očuvanje ljudske kontrole i
nadzora." Etika umjetne inteligencije i dalje će biti brzorastući pokret u doglednoj budućnosti, dodao
je Green. "[S]kod umjetne inteligencije," priznao je, "sada smo stvorili mislioce izvan sebe i otkrili da,
osim ako im ne damo neke etičke misli, neće napraviti dobre izbore."
AI etika nikad nije gotova. Etičke prosudbe će se možda morati promijeniti kako se uvjeti mijenjaju.
"Moramo održavati našu svijest i vještine", naglasio je Green, "tako da, ako AI ne koristi društvu,
možemo učiniti potrebna poboljšanja."