0% found this document useful (0 votes)
27 views13 pages

10 Top Resources To Build An Ethical AI Framework

Uploaded by

Merlina Tolevska
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as DOCX, PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
27 views13 pages

10 Top Resources To Build An Ethical AI Framework

Uploaded by

Merlina Tolevska
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as DOCX, PDF, TXT or read online on Scribd
You are on page 1/ 13

https://www.techtarget.

com/searchenterpriseai/feature/Top-resources-to-build-an-
ethical-AI-framework

10 top resources to build an


ethical AI framework
Several standards, tools and techniques are available to help navigate
the nuances and complexities in establishing a generative AI ethics
framework that supports responsible AI.





By

 George Lawton

Published: 22 Aug 2023

As generative AI gains a stronger foothold in the enterprise, executives are


called upon to bring greater attention to AI ethics -- a big challenge since
many issues relate to bias, transparency, explainability and trust. To
illuminate the various nuances of ethical AI, government agencies,
regulators and independent groups are developing ethical AI frameworks,
tools and resources.
"The most impactful frameworks or approaches to addressing ethical AI
issues … take all aspects of the technology -- its usage, risks and potential
outcomes -- into consideration," said Tad Roselund, managing director and
senior partner at Boston Consulting Group (BCG). Many firms approach the
development of ethical AI frameworks from purely a values-based position,
he added. It's important to take a holistic ethical AI approach that integrates
strategy with process and technical controls, cultural norms and
governance. These three elements of an ethical AI framework can help
institute responsible AI policies and initiatives. And it all starts by
establishing a set of principles around AI usage.

"Oftentimes, businesses and leaders are narrowly focused on one of these


elements when they need to focus on all them," Roselund reasoned.
Addressing any one element may be a good starting point, but by
considering all three elements -- controls, cultural norms and governance --
businesses can devise an all-encompassing ethical AI framework. This
approach is especially important when it comes to generative AI and its
ability to democratize the use of AI.

Enterprises must also instill AI ethics into those who develop and use AI
tools and technologies. Open communication, educational resources, and
enforced guidelines and processes to ensure the proper use of AI,
Roselund advised, can further bolster an internal AI ethics framework that
addresses generative AI.

THIS ARTICLE IS PART OF

A guide to artificial intelligence in the enterprise


 Which also includes:

 The future of AI: What to expect in the next 5 years

 Types of AI algorithms and how they work

 10 top artificial intelligence certifications and courses for 2023

DOWNLOAD 1
Download this entire guide for FREE now!

Sever
al issues need to be considered and overcome when devising and establishing an AI
ethics framework.
Top resources to shape an ethical AI framework
There are several standards, tools, techniques and other resources to help
shape a company's internal ethical AI framework. The following are listed
alphabetically:

1. AI Now Institute focuses on the social implications of AI and


policy research in responsible AI. Research areas include
algorithmic accountability, antitrust concerns, biometrics, worker
data rights, large-scale AI models and privacy. The report "AI Now
2023 Landscape: Confronting Tech Power" provides a deep dive
into many ethical issues that can be helpful in developing a
responsible AI policy.

2. Berkman Klein Center for Internet & Society at Harvard


University fosters research into the big questions related to the
ethics and governance of AI. It has contributed to the dialogue
about information quality, influenced policymaking on algorithms
in criminal justice, supported the development of AI governance
frameworks, studied algorithmic accountability and collaborated
with AI vendors.

3. CEN-CENELEC Joint Technical Committee on Artificial


Intelligence (JTC 21) is an ongoing EU initiative for various
responsible AI standards. The group plans to produce standards
for the European market and inform EU legislation, policies and
values. It also plans to specify technical requirements for
characterizing transparency, robustness and accuracy in AI
systems.

4. Institute for Technology, Ethics and Culture (ITEC)


Handbook was a collaborative effort between Santa Clara
University's Markkula Center for Applied Ethics and the Vatican to
develop a practical, incremental roadmap for technology ethics.
The handbook includes a five-stage maturity model, with specific
measurable steps that enterprises can take at each level of
maturity. It also promotes an operational approach for
implementing ethics as an ongoing practice, akin
to DevSecOps for ethics. The core idea is to bring legal, technical
and business teams together during ethical AI's early stages to
root out the bugs at a time when they're much cheaper to fix than
after responsible AI deployment.

5. ISO/IEC 23894:2023 IT-AI-Guidance on risk


management standard describes how an organization can
manage risks specifically related to AI. It can help standardize the
technical language characterizing underlying principles and how
these principles apply to developing, provisioning or offering AI
systems. It also covers policies, procedures and practices for
assessing, treating, monitoring, reviewing and recording risk. It's
highly technical and oriented toward engineers rather than
business experts.

6. NIST AI Risk Management Framework (AI RMF


1.0) guides government agencies and the private sector on
managing new AI risks and promoting responsible AI. Abhishek
Gupta, founder and principal researcher at the Montreal AI Ethics
Institute, pointed to the depth of the NIST framework, especially
its specificity in implementing controls and policies to better
govern AI systems within different organizational contexts.

7. Nvidia/NeMo Guardrails provides a flexible interface for defining


specific behavioral rails that bots need to follow. It supports
the Colang modeling language. One chief data scientist said his
company uses the open source toolkit to prevent a support
chatbot on a lawyer's website from providing answers that might
be construed as legal advice.

8. Stanford Institute for Human-Centered Artificial Intelligence


(HAI) provides ongoing research and guidance into best practices
for human-centered AI. One early initiative in collaboration with
Stanford Medicine is Responsible AI for Safe and Equitable
Health, which addresses ethical and safety issues surrounding AI
in health and medicine.

9. "Towards unified objectives for self-reflective AI" is


a paper by Matthias Samwald, Robert Praas and Konstantin
Hebenstreit that takes a Socratic approach to identify underlying
assumptions, contradictions and errors through dialogue and
questioning about truthfulness, transparency, robustness and
alignment of ethical principles. One goal is to develop AI meta-
systems in which two or more component AI models complement,
critique and improve their mutual performance.

10. World Economic Forum's "The Presidio Recommendations


on Responsible Generative AI" white paper includes 30 "action-
oriented" recommendations to "navigate AI complexities and
harness its potential ethically." It includes sections on responsible
development and release of generative AI, open innovation and
international collaboration, and social progress.
Estab
lishing an ethical AI framework and instituting responsible AI practices require a
comprehensive assessment of AI processes companywide.

Best ethical AI practices


Ethical AI resources are a sound starting point toward tailoring and
establishing a company's ethical AI framework and launching responsible
AI policies and initiatives. The following best practices can help achieve
these goals:

 Appoint an ethics leader. There are instances when many well-


intentioned people sit around a table discussing various ethical AI
issues but fail to make informed, decisive calls to action, Roselund
noted. A single leader appointed by the CEO can drive decisions
and actions.

 Take a cross-functional approach. Implementing AI tools and


technologies companywide requires cross-functional cooperation,
so the policies and procedures to ensure AI's responsible use
need to reflect that approach, Roselund advised. Ethical AI
requires leadership, but its success isn't the sole responsibility of
one person or department.

 Customize the ethical AI framework. A generative AI ethics


framework should be tailored to a company's own unique style,
objectives and risks, without forcing a square peg into a round
hole. "Overloaded program implementations," Gupta said,
"ultimately lead to premature termination due to inefficiencies, cost
overruns and burnouts of staff tasked with putting the program in
place." Harmonize ethical AI programs with existing workflows and
governance structures. Gupta compared this approach to setting
the stage for a successful organ transplant.

 Establish ethical AI measurements. For employees to buy into


an ethical AI framework and responsible AI policies, companies
need to be transparent about their intentions, expectations and
corporate values, as well as their plans to measure success.
"Employees not only need to be made aware of these new ethical
emphases, but they also need to be measured in their adjustment
and rewarded for adjusting to new expectations," explained Brian
Green, director of technology ethics at Markkula Center for
Applied Ethics.

 Be open to different opinions. Engaging a diverse group of


voices is essential, including ethicists, field experts and those in
surrounding communities that AI deployments might impact. "By
working together, we gain a deeper understanding of ethical
concerns and viewpoints and develop AI systems that are
inclusive and respectful of diverse values," said Paul Pallath, vice
president of the applied AI practice at technology consultancy
Searce.

 Take a holistic perspective. Legalities don't always align with


ethics, Pallath cautioned. Sometimes, legally acceptable actions
might raise ethical concerns. Ethical decision-making needs to
address both legal and moral aspects. This approach ensures that
AI technologies meet legal requirements and uphold ethical
principles to safeguard the well-being of individuals and society.
Future of ethical AI frameworks
Researchers, enterprise leaders and regulators are still investigating ethical issues
relating to responsible AI. Legal challenges involving copyright and intellectual
property protection will have to be addressed, Gupta predicted. Issues related to
generative AI and hallucinations will take longer to address since some of those
potential problems are inherent in the design of today's AI systems.

Enterprises and data scientists will also need to better solve issues of bias and
inequality in training data and machine learning algorithms. In addition, issues
relating to AI system security, including cyber attacks against large language models,
will require continuous engineering and design improvements to keep pace with
increasingly sophisticated criminal adversaries.

"AI ethics will only grow in importance," Gupta surmised, "and will experience
many more overlaps with adjacent fields to strengthen the contributions it can
make to the broader AI community." In the near future, Pallath sees AI evolving
toward enhancing human capabilities in collaboration with AI technologies rather
than supplanting humans entirely. "Ethical considerations," he explained, "will revolve
around optimizing AI's role in augmenting human creativity, productivity and
decision-making, all while preserving human control and oversight."

For more on generative AI, read the following articles:

AI content generators to explore

The best large language models

Attributes of open vs. closed AI explained

Generative models: VAEs, GANs, diffusion, transformers, NeRFs

Assessing different types of generative AI applications


AI ethics will continue to be a fast-growing movement for the foreseeable future,
Green added. "[W]ith AI," he acknowledged, "now we have created thinkers
outside of ourselves and discovered that, unless we give them some ethical
thoughts, they won't make good choices."

AI ethics is never done. Ethical judgments might need to change as conditions


change. "We need to maintain our awareness and skill," Green emphasized, "so
that, if AI is not benefiting society, we can make the necessary improvements."

Next Steps
History of generative AI innovations spans 9 decades

7 generative AI challenges that businesses should consider

How to detect AI-generated content

How to prevent deepfakes in the era of generative AI

Pros and cons of AI-generated content

Related Resources

 Optimising content management workflows with AI –TechTarget ComputerWeekly.com

 Human-like AI quest drives general AI development efforts –TechTarget ComputerWeekly.com

 How AI in the workplace is changing ERP systems–TechTarget ComputerWeekly.com

 Buying an AI Infrastructure: What You Should Know –Data Science Central

Kako generativna umjetna inteligencija stječe jače uporište u poduzeću, rukovoditelji su pozvani da
posvete veću pozornost etici umjetne inteligencije -- što je veliki izazov jer se mnoga pitanja odnose
na pristranost, transparentnost, objašnjivost i povjerenje. Kako bi rasvijetlili različite nijanse etičke
umjetne inteligencije, vladine agencije, regulatori i neovisne skupine razvijaju okvire, alate i resurse
za etičku umjetnu inteligenciju.

"Najutjecajniji okviri ili pristupi rješavanju etičkih pitanja umjetne inteligencije ... uzimaju u obzir sve
aspekte tehnologije - njezinu upotrebu, rizike i potencijalne rezultate", rekao je Tad Roselund,
direktor i viši partner u Boston Consulting Group (BCG) . Mnoge tvrtke razvoju etičkih okvira umjetne
inteligencije pristupaju isključivo s pozicije temeljene na vrijednostima, dodao je. Važno je zauzeti
holistički etički pristup umjetnoj inteligenciji koji integrira strategiju s procesnim i tehničkim
kontrolama, kulturnim normama i upravljanjem. Ova tri elementa etičkog okvira za umjetnu
inteligenciju mogu pomoći u uspostavljanju odgovornih politika i inicijativa za umjetnu inteligenciju.
A sve počinje uspostavljanjem skupa načela oko upotrebe umjetne inteligencije.

"Često su tvrtke i vođe usko usredotočeni na jedan od ovih elemenata kada se moraju usredotočiti na
sve njih", obrazložio je Roselund. Bavljenje bilo kojim elementom može biti dobra polazna točka, ali
uzimajući u obzir sva tri elementa - kontrole, kulturne norme i upravljanje - tvrtke mogu osmisliti
sveobuhvatni etički okvir umjetne inteligencije. Ovaj pristup je posebno važan kada je riječ o
generativnoj umjetnoj inteligenciji i njenoj sposobnosti da demokratizira korištenje umjetne
inteligencije.

Poduzeća također moraju usaditi etiku umjetne inteligencije onima koji razvijaju i koriste alate i
tehnologije umjetne inteligencije. Otvorena komunikacija, obrazovni resursi i nametnute smjernice i
procesi kako bi se osigurala ispravna upotreba umjetne inteligencije, savjetovao je Roselund, mogu
dodatno ojačati interni etički okvir umjetne inteligencije koji se bavi generativnom umjetnom
inteligencijom.

Prilikom osmišljavanja i uspostavljanja okvira etike umjetne inteligencije potrebno je razmotriti i


prevladati nekoliko pitanja.

Vrhunski resursi za oblikovanje etičkog okvira umjetne inteligencije

Postoji nekoliko standarda, alata, tehnika i drugih izvora koji pomažu u oblikovanju internog etičkog
okvira AI tvrtke. Sljedeće je navedeno abecednim redom:

1. AI Now Institute usredotočen je na društvene implikacije umjetne inteligencije i istraživanje


politike odgovorne umjetne inteligencije. Područja istraživanja uključuju algoritamsku odgovornost,
antimonopolska pitanja, biometriju, prava radnika na podatke, modele umjetne inteligencije velikih
razmjera i privatnost. Izvješće "AI Now 2023 Landscape: Confronting Tech Power" pruža duboki zaron
u mnoga etička pitanja koja mogu biti od pomoći u razvoju odgovorne politike AI.

2. Berkman Klein Center for Internet & Society na Sveučilištu Harvard potiče istraživanje velikih
pitanja povezanih s etikom i upravljanjem umjetnom inteligencijom. Pridonijela je dijalogu o kvaliteti
informacija, utjecala na donošenje politika o algoritmima u kaznenom pravosuđu, podržala razvoj
okvira upravljanja umjetnom inteligencijom, proučavala algoritamsku odgovornost i surađivala s
dobavljačima umjetne inteligencije.

3. CEN-CENELEC Zajednički tehnički odbor za umjetnu inteligenciju (JTC 21) tekuća je inicijativa EU-a
za različite standarde odgovorne umjetne inteligencije. Grupa planira proizvesti standarde za
europsko tržište i informirati o zakonodavstvu, politikama i vrijednostima EU-a. Također planira
specificirati tehničke zahtjeve za karakterizaciju transparentnosti, robusnosti i točnosti u sustavima
umjetne inteligencije.

4. Priručnik Instituta za tehnologiju, etiku i kulturu (ITEC) rezultat je suradnje Markkula centra za
primijenjenu etiku Sveučilišta Santa Clara i Vatikana na razvoju praktičnog, postepenog plana za
tehnološku etiku. Priručnik uključuje model zrelosti od pet stupnjeva, s određenim mjerljivim
koracima koje poduzeća mogu poduzeti na svakoj razini zrelosti. Također promiče operativni pristup
za provedbu etike kao stalne prakse, slično DevSecOps-u za etiku. Temeljna ideja je okupiti pravne,
tehničke i poslovne timove zajedno tijekom ranih faza etičke umjetne inteligencije kako bi se
iskorijenile pogreške u vrijeme kada ih je mnogo jeftinije popraviti nego nakon odgovorne
implementacije umjetne inteligencije.

5. ISO/IEC 23894:2023 IT-AI-Smjernice za standard upravljanja rizikom opisuje kako organizacija može
upravljati rizicima koji se posebno odnose na umjetnu inteligenciju. Može pomoći u standardizaciji
tehničkog jezika koji karakterizira temeljna načela i kako se ta načela primjenjuju na razvoj, pružanje
ili ponudu AI sustava. Također pokriva politike, postupke i prakse za procjenu, tretiranje, praćenje,
pregled i bilježenje rizika. Visoko je tehnički i usmjeren na inženjere, a ne na poslovne stručnjake.

6. NIST AI Risk Management Framework (AI RMF 1.0) vodi vladine agencije i privatni sektor u
upravljanju novim rizicima AI i promicanju odgovorne AI. Abhishek Gupta, osnivač i glavni istraživač
na Institutu za etiku umjetne inteligencije u Montrealu, ukazao je na dubinu okvira NIST-a, posebno
njegovu specifičnost u provedbi kontrola i politika za bolje upravljanje sustavima umjetne
inteligencije unutar različitih organizacijskih konteksta.

7. Nvidia/NeMo Guardrails pruža fleksibilno sučelje za definiranje specifičnih tračnica ponašanja koje
botovi trebaju slijediti. Podržava jezik za modeliranje Colang. Jedan glavni znanstvenik za podatke
rekao je da njegova tvrtka koristi alate otvorenog koda kako bi spriječila chatbot za podršku na web
stranici odvjetnika da pruži odgovore koji bi se mogli protumačiti kao pravni savjet.

8. Stanfordski institut za umjetnu inteligenciju usmjerenu na čovjeka (HAI) pruža stalna istraživanja i
smjernice za najbolju praksu za AI usmjerenu na čovjeka. Jedna rana inicijativa u suradnji sa Stanford
Medicine je Responsible AI for Safe and Equitable Health, koja se bavi etičkim i sigurnosnim pitanjima
koja okružuju AI u zdravstvu i medicini.

9. "Towards unified goals for self-reflective AI" je rad Matthiasa Samwalda, Roberta Praasa i
Konstantina Hebenstreita koji koristi Sokratov pristup identificiranju temeljnih pretpostavki,
proturječja i pogrešaka kroz dijalog i propitivanje o istinitosti, transparentnosti, robusnosti i
usklađenosti etička načela. Jedan od ciljeva je razviti meta-sustave umjetne inteligencije u kojima se
dva ili više komponentnih modela umjetne inteligencije nadopunjuju, kritiziraju i poboljšavaju
njihove međusobne performanse.

10. Bijela knjiga Svjetskog ekonomskog foruma "The Presidio Recommendations on Responsible
Generative AI" uključuje 30 "akcijski orijentiranih" preporuka za "navigaciju složenostima AI-a i etički
iskorištavanje njegovog potencijala". Uključuje odjeljke o odgovornom razvoju i objavljivanju
generativne umjetne inteligencije, otvorenim inovacijama i međunarodnoj suradnji te društvenom
napretku.

Najbolje etičke prakse umjetne inteligencije

Resursi etičke umjetne inteligencije dobra su polazna točka za krojenje i uspostavljanje okvira etičke
umjetne inteligencije tvrtke i pokretanje odgovornih politika i inicijativa za umjetnu inteligenciju.
Sljedeći najbolji primjeri iz prakse mogu pomoći u postizanju ovih ciljeva:

• Imenovati voditelja etike. Postoje slučajevi kada mnogi ljudi s dobrim namjerama sjede za stolom i
raspravljaju o raznim etičkim pitanjima umjetne inteligencije, ali ne uspiju uputiti informirane,
odlučne pozive na akciju, primijetio je Roselund. Jedan vođa kojeg je imenovao CEO može voditi
odluke i radnje.

• Zauzmite međufunkcionalni pristup. Implementacija alata i tehnologija umjetne inteligencije u


cijeloj tvrtki zahtijeva međufunkcionalnu suradnju, tako da politike i procedure za osiguranje
odgovorne upotrebe umjetne inteligencije moraju odražavati taj pristup, savjetuje Roselund. Etička
umjetna inteligencija zahtijeva vodstvo, ali njezin uspjeh nije isključiva odgovornost jedne osobe ili
odjela.

• Prilagodite etički okvir umjetne inteligencije. Generativni etički okvir umjetne inteligencije trebao bi
biti prilagođen vlastitom jedinstvenom stilu, ciljevima i rizicima tvrtke, bez guranja četvrtastog klina u
okruglu rupu. "Preopterećena implementacija programa", rekao je Gupta, "u konačnici dovodi do
preranog prekida zbog neučinkovitosti, prekoračenja troškova i iscrpljenosti osoblja zaduženog za
postavljanje programa." Uskladite etičke programe umjetne inteligencije s postojećim tijekovima
rada i strukturama upravljanja. Gupta je ovaj pristup usporedio s postavljanjem pozornice za
uspješno presađivanje organa.

• Uspostavite etička mjerenja umjetne inteligencije. Da bi zaposlenici prihvatili etički okvir umjetne
inteligencije i odgovorne politike umjetne inteligencije, tvrtke moraju biti transparentne u pogledu
svojih namjera, očekivanja i korporativnih vrijednosti, kao i svojih planova za mjerenje uspjeha.
"Zaposlenike ne samo da treba upoznati s ovim novim etičkim naglascima, već ih također treba
mjeriti u njihovoj prilagodbi i nagraditi za prilagodbu novim očekivanjima", objasnio je Brian Green,
direktor tehnološke etike u Centru za primijenjenu etiku Markkula.

• Budite otvoreni za različita mišljenja. Ključno je uključiti raznoliku skupinu glasova, uključujući
etičare, terenske stručnjake i one u okolnim zajednicama na koje bi implementacija umjetne
inteligencije mogla utjecati. "Radeći zajedno, stječemo dublje razumijevanje etičkih pitanja i stajališta
te razvijamo sustave umjetne inteligencije koji su uključivi i poštuju različite vrijednosti", rekao je Paul
Pallath, potpredsjednik prakse primijenjene umjetne inteligencije u konzultantskoj tvrtki Searce za
tehnologiju.

• Zauzmite holističku perspektivu. Zakonitosti nisu uvijek u skladu s etikom, upozorio je Pallath.
Ponekad pravno prihvatljive radnje mogu izazvati etičke probleme. Etičko donošenje odluka mora se
baviti i pravnim i moralnim aspektima. Ovaj pristup osigurava da AI tehnologije ispunjavaju zakonske
zahtjeve i podržavaju etička načela kako bi se zaštitila dobrobit pojedinaca i društva.

Budućnost etičkih AI okvira

Istraživači, voditelji poduzeća i regulatori još uvijek istražuju etička pitanja u vezi s odgovornom
umjetnom inteligencijom. Morat će se riješiti pravni izazovi koji uključuju zaštitu autorskih prava i
intelektualnog vlasništva, predvidio je Gupta. Za rješavanje problema povezanih s generativnom
umjetnom inteligencijom i halucinacijama trebat će više vremena jer su neki od tih potencijalnih
problema svojstveni dizajnu današnjih sustava umjetne inteligencije.

Poduzeća i znanstvenici koji se bave podacima također će morati bolje riješiti pitanja pristranosti i
nejednakosti u obučavanju podataka i algoritama strojnog učenja. Osim toga, pitanja koja se odnose
na sigurnost sustava umjetne inteligencije, uključujući kibernetičke napade na velike jezične modele,
zahtijevat će stalna poboljšanja inženjeringa i dizajna kako bi se održao korak sa sve sofisticiranijim
kriminalnim protivnicima.

"Važnost etike umjetne inteligencije samo će rasti", pretpostavio je Gupta, "i doživjet će mnogo više
preklapanja sa susjednim područjima kako bi se ojačao doprinos koji može dati široj zajednici
umjetne inteligencije." Pallath u bliskoj budućnosti vidi da će se umjetna inteligencija razvijati prema
poboljšanju ljudskih sposobnosti u suradnji s tehnologijama umjetne inteligencije, umjesto da u
potpunosti zamijeni ljude. "

Etička razmatranja", objasnio je, "vrtjet će se oko optimiziranja uloge umjetne inteligencije u
povećanju ljudske kreativnosti, produktivnosti i donošenja odluka, uz očuvanje ljudske kontrole i
nadzora." Etika umjetne inteligencije i dalje će biti brzorastući pokret u doglednoj budućnosti, dodao
je Green. "[S]kod umjetne inteligencije," priznao je, "sada smo stvorili mislioce izvan sebe i otkrili da,
osim ako im ne damo neke etičke misli, neće napraviti dobre izbore."

AI etika nikad nije gotova. Etičke prosudbe će se možda morati promijeniti kako se uvjeti mijenjaju.
"Moramo održavati našu svijest i vještine", naglasio je Green, "tako da, ako AI ne koristi društvu,
možemo učiniti potrebna poboljšanja."

You might also like