Du kan dele din kunnskap ved å forbedre den ( hvordan? ) I henhold til anbefalingene fra de tilsvarende prosjektene .
De etikk kunstig intelligens er domenet av etikken av teknologi (i) bestemt til roboter og andre kunstig intelligente enheter . Det er generelt delt inn i roboetikk , som bryr seg om menneskelig etikk for å veilede design, konstruksjon og bruk av kunstig intelligente vesener, og etikken til maskiner (in) , bekymret for den moralske oppførselen til kunstige moralske agenter.
For filosofisk aspekt av kunstig intelligens, se Filosofi om kunstig intelligens .
" Roboethics " vurderer det etiske aspektet ved design, konstruksjon, bruk og behandling av roboter av mennesker. Den vurderer både hvordan kunstig intelligente vesener kan brukes til å skade mennesket, og hvordan de kan brukes til fordel for mennesket.
Rettighetene til roboter er samfunnets moralske forpliktelser til maskinene, lik menneskerettigheter og dyrerettigheter . Disse kan omfatte retten til liv og frihet, til tanke- og ytringsfrihet og til likhet for loven . Saken ble behandlet av Institute for the Future og Department of Trade and Industry i Storbritannia .
Eksperter er uenige i om spesifikke og detaljerte lover vil være nødvendig i en fjern fremtid. Glenn McGee rapporterer at et stort antall humanoide roboter kan dukke opp innen 2020. Ray Kurzweil setter datoen til 2029. En annen gruppe forskere som møttes i 2007 spekulerte i at minst 50 år må gå før et system som er tilstrekkelig avansert ikke eksisterer.
Den første kretsen til Aleksandr Solzhenitsyn beskriver bruken av teknologien til talegjenkjenning i tjeneste for tyranni. Hvis det finnes et AI-program som kan forstå naturlige stemmer og språk , kan det med tilstrekkelig prosessorkraft teoretisk lytte til hver telefonsamtale og lese hver e-post i verden, forstå dem og rapportere hva det er sagt og av hvem. Et AI-program som dette kan gjøre det mulig for regjeringer eller andre enheter å effektivt undertrykke dissens og angripe sine fiender.
Joseph Weizenbaum argumenterte i 1976 for at AI-teknologi ikke skulle brukes til å erstatte mennesker i stillinger som krever respekt og omsorg, for eksempel:
Weizenbaum forklarer at vi trenger ekte følelser og empati fra menneskene i disse stillingene. Hvis maskiner erstatter dem, vil vi finne oss fremmedgjort, devaluert og frustrert. Kunstig intelligens, hvis den brukes på denne måten, utgjør en trussel mot menneskeverdet.
IA-grunnlegger John McCarthy motsetter seg den moraliserende tonen i Weizenbaums kritikk. "Når moralisering er både heftig og vag, innbyr den til autoritært misbruk," skriver han.
Bill Hibbard (as) skrev at "menneskelig verdighet krever at vi jobber for å eliminere vår uvitenhet om eksistensens natur, og AI er nødvendig for denne innsatsen. "
Bill Hibbard hevder at fordi AI vil ha en dyp innvirkning på menneskeheten, er AI-utviklere representanter for fremtidens menneskehet og har derfor en etisk forpliktelse til å være gjennomsiktige i sitt arbeid. Ben Goertzel og David Hart opprettet OpenCog , et open source- rammeverk for utvikling av AI OpenAI er et ideelt forskningsselskap opprettet av Elon Musk , Sam Altman og andre for å utvikle open source AI. Det er mange andre utviklinger av kunstig intelligens med åpen kildekode.
Noen eksperter og akademikere har stilt spørsmålstegn ved bruken av roboter til militær kamp, spesielt når disse robotene er utstyrt med en viss grad av autonomi. Den amerikanske marinen finansierte en rapport som sier at når militære roboter blir mer komplekse, bør mer oppmerksomhet rettes mot implikasjonene av deres autonomi. Forsker hevder at autonome roboter kan være mer menneskelige, ettersom de kan ta beslutninger mer effektivt .
Autonome våpen med AI kan utgjøre en annen type fare enn våpen som kontrolleres av mennesker. Mange regjeringer har startet finansieringsprogrammer for å utvikle kunstig intelligensbasert våpen. Den amerikanske marinen har kunngjort planer om å utvikle autonome kampdroner , sammen med lignende kunngjøringer fra Russland og Korea.
Når det gjelder muligheten for å bruke smartere systemer militært, skriver Open Philanthropy Project at dette scenariet "synes potensielt å være like viktig som risikoen for tap av kontroll", men at forskningsorganisasjoner som undersøker den langsiktige sosiale effekten av AI brukte relativt lite tid. til denne bekymringen: “Denne klassen av scenarier har ikke vært et stort fokus for organisasjonene som er mest aktive på dette feltet, som for eksempel Machine Intelligence Research Institute (MIRI) og Future of Humanity Institute (FHI), det ser ut til å ha vært mindre analyse og debatt om dem ”.
Stephen Hawking , Elon Musk , Max Tegmark og mange andre fra det internasjonale kunstige intelligens- og roboticsamfunnet undertegnet et åpent brev om kunstig intelligens fra Future of Life Institute . Dette brevet “ FORSKNINGSPRIORITETER FOR ROBUST OG GODTGJENGELIG KUNSTIG INTELLIGENS ” refererer til en separat publisert artikkel om AI-forskningsprioriteringer.
“Autonome våpen: et åpent brev fra forskere innen AI og robotikk” (2015)Et åpent brev “ AUTONOMOUS WAPONS: AN OPEN BREV FRA AI & ROBOTICS FOREARCHERS ” om autonome våpen blir publisert: “Hvis en større militærmakt går videre med utviklingen av kunstig intelligensvåpen, er et globalt våpenkappløp praktisk talt uunngåelig, og sluttpunktet av denne teknologiske banen er tydelig: autonome våpen blir morgendagens Kalashnikov " , uttalte begjæringen, som inkluderer medstifter av Skype , Jaan Tallinn og lingvistikkprofessor ved MIT Noam Chomsky som støttespillere mot å bevæpne AI. Meldingen fra Hawking og Tegmark indikerer at AI-våpen utgjør en umiddelbar fare, og at det er nødvendig med tiltak for å forhindre katastrofe i nær fremtid.
"Åpent brev til FNs konvensjon om visse konvensjonelle våpen" (2017)Et annet åpent brev om konvensjonen om visse konvensjonelle våpen fra FN er målrettet mot å forby autonome våpen i FN-rammeverket. Dette brevet, " ET ÅPNET BREV TIL DEN FORENEDE NASJONENS KONVENSJON OM VISSE KONVENSJONELLE VÅPN " , er signert av Elon Musk fra Tesla og Mustafa Suleyman (in) i alfabetet og av 116 spesialister fra 26 land.
“Dødelige autonome våpen truer med å bli den tredje våpenrevolusjonen. Når våpnene er utviklet, vil de gjøre det mulig å kjempe i væpnet konflikt på en skala som er større enn noen gang før, og til tider skalere raskere enn mennesker kan forstå. De kan være terrorvåpen, våpen som despoter og terrorister bruker mot uskyldige befolkninger, og piratkopierte våpen for å oppføre seg på uønskede måter. Vi har ikke lang tid å handle. Når denne Pandora's Box er åpen, vil det være vanskelig å lukke den. Vi ber derfor de høye kontraherende parter om å finne en måte å beskytte oss alle mot disse farene. "
Den kanadiske forskeren Yoshua Bengio skrev til statsminister Trudeau for å be, sammen med sine kolleger, "at Canada støtter trinnene som pågår i FN for å forby draproboter." Dette er grunnen til at jeg, sammen med Stephen Hawkins og Elon Musk, bidro til utviklingen av et nytt brev, denne gangen fra hele det internasjonale samfunnet innen kunstig intelligens og robotikk, og krevde en internasjonal traktat for å forby drapsmannroboter. "
Anna Jobin, Marcello Ienca og Effy Vayena fant etter å ha analysert 84 dokumenter 11 etiske prinsipper: åpenhet, rettferdighet / rettferdighet, ikke-maleficence, ansvar, respekt for privatliv eller privatliv, veldedighet, frihet og autonomi, tillit, bærekraft, menneskelig verdighet og til slutt solidaritet. Disse prinsippene er ordnet i en bestemt rekkefølge, fra de mest representerte til de minst representerte. Dokumentene de brukte kommer fra forskjellige typer institusjoner: privat sektor, offentlig sektor, akademiske og forskningsinstitusjoner, fagforeninger og vitenskapelige samfunn, ideelle organisasjoner osv. Prinsippene vises ikke alle systematisk i de etiske retningslinjene, etikken til kunstig intelligens er derfor ikke et enhetlig felt. Som forfatterne forklarer, er begrepet etikk innen AI en vag idé som kan dekke flere virkeligheter. Vi finner ikke noe etisk prinsipp som er felles for alle disse tekstene. Noen av dem fremdeles skiller seg ut mens andre finner seg underrepresentert. Spørsmålet om åpenhet, for eksempel, selv om det ikke vises i alle dokumenter, tegner en form for konvergens. I motsetning til dette blir prinsipper som (menneskelig) verdighet og bærekraft funnet å være underrepresentert. Denne forestillingen om bærekraft refererer mesteparten av tiden til det økologiske fotavtrykket til disse teknologiene, som er veldig datakrevende og derfor har et sterkt økologisk fotavtrykk. Bortsett fra det understreker forfatterne at dette prinsippet om bærekraft er nært knyttet til solidaritetsprinsippet. I denne forstand handler det, bortsett fra de negative virkningene som kunstig intelligens har på miljøet, om å skape en teknologi som kan vare, med data behandlet på en bærekraftig måte og hvis leksjoner kan brukes over tid. Kunstig intelligens kan utformes, utvikles og styres med sikte på å øke energieffektiviteten mens den begrenser det økologiske fotavtrykket. Prinsippet om solidaritet blir i de fleste tilfeller fremkalt med henvisning til tap av arbeidsplasser og erstatning av menneske med maskin. Forfatterne understreker at det er nødvendig å stille spørsmål ved dette prinsippet med hensyn til det humanitære spørsmålet, for å hjelpe til med å løse spesielt humanitære utfordringer. Løsninger for å gjøre kunstig intelligens mer etisk er nevnt i disse guidene. De etikk ved design eller etisk priori, for eksempel refererer til ideen om en etikk som ikke fokuserer på godkjenning av design av AI, men på oppstrøms av det. I flere år lyder spørsmål om etikk om kunstig intelligens mer og mer, i media, så vel som i alle involverte sfærer, som presset tilbaketrekningen av visse produkter, applikasjoner eller algoritmer fra det digitale markedet. Løsningen vil derfor være å tenke oppstrøms for designen, mulige drift av disse teknologiene for å begrense de skadelige konsekvensene. Tekniske løsninger gis i denne retningen, for eksempel prøver vi å sette opp teknikker for å " feilsøke " AI. Bortsett fra teknologi, finner vi i to dokumenter viktigheten av å beskytte varslere bedre , her refererer vi til forestillingen som ble forfalsket av Francis Chateauraynaud i 1996. Denne beskyttelsen kan gjøre det mulig å yte ytringsfrihet for å vekke bevisstheten om mulige drift av dette teknologi.
Flere tusen underskrivere, inkludert Stephen Hawking og Elon Musk har "vedtatt en referanseguide for den etiske utviklingen av kunstig intelligens" . Disse prinsippene ble utviklet under Asilomar-konferansen i 2017.
Maskinetikk (eller maskinetikk) er forskningsområdet viet design av kunstige moralske agenter (AMA), roboter eller kunstig intelligente datamaskiner som oppfører seg moralsk.
Isaac Asimov undersøkte dette spørsmålet på 1950-tallet i The Robots . På insistering fra redaktøren John W. Campbell Jr. , foreslo han de tre lovene innen robotikk for å styre kunstig intelligente systemer. Mye av arbeidet hans ble deretter viet til å teste grensene for hans tre lover. Hans arbeid antyder at intet sett med faste lover i tilstrekkelig grad kan forutse alle mulige omstendigheter.
Noen eksperter og akademikere har stilt spørsmålstegn ved bruken av roboter til militær kamp, spesielt når disse robotene er utstyrt med en viss grad av autonomi. Presidenten for foreningen for fremme av kunstig intelligens bestilte en studie for å undersøke dette problemet. De peker på språkoppkjøpsprogrammer for å etterligne menneskelig interaksjon.
Vernor Vinge foreslo et hypotetisk poeng i menneskelig sivilisasjon som kunne oppleve teknologisk vekst der noen datamaskiner blir smartere enn mennesker. Han kaller dette " Singularity ". Han antyder at det kan være veldig farlig for menneskeheten. Dette diskuteres av filosofien kalt singularitarisme . The Machine Intelligence Research Institute har foreslått behovet for å bygge " vennlige kunstige intelligenser ", som betyr at de fremskritt som allerede er i gang med AI bør også inkludere en innsats for å gjøre AI iboende vennlig og menneskelig.
I Moral Machines: Teaching Robots Right from Wrot , Wendell Wallach og Colin Allen konkluderer med at forsøk på å lære robotrettigheter fra ondskap sannsynligvis vil forbedre forståelsen av menneskelig etikk ved å motivere mennesker til å fylle ut hullene i lov. Moderne normativ teori og gi en plattform for eksperimentell etterforskning. Nick Bostrom og Eliezer Yudkowsky argumenterte for beslutningstrær (som ID3 ) på nevrale nettverk og genetiske algoritmer med den begrunnelse at beslutningstrær overholder moderne sosiale standarder for gjennomsiktighet og forutsigbarhet.
Innen kunstig intelligens setter spørsmålstegn ved henvendelse fra etiske prinsipper til begrepet etikkvask. Dette uttrykket refererer til fenomenet som ville gjøre etikk, et salgsargument, et motefenomen. I denne forstand stiller de " etiske retningslinjene ", laget av selskaper og for seg selv, spørsmålstegn ved hva som ligger bak forestillingen om etikk. Flere forfattere peker fingrene mot talene om kunstig intelligens som holdes av visse personligheter som Elon Musk , Bill Gates eller til og med Stephen Hawking . De ser ut til å forvandle science fiction til vitenskap, som bringer oss tilbake til fenomenet transhumanisme eller teknologisk singularitet fremkalt av Jean-Gabriel Ganascia . Denne forestillingen om etikkvask ser ut til å stille spørsmål ved årsakene til at så mange aktører tar i bruk denne oppfatningen av etikk i kunstig intelligens. Det ville være et spørsmål om interessen til disse veilederne er legitim, eller om det handler om et middel for å bryte kontroversen og begrense interferens fra en tvangsmakt som vil hindre søket etter skuespillerne.
Mange forskere har hevdet at, som en del av en "eksplosjon av intelligens" i XXI th århundre, kan en selv forbedret AI blitt så mye sterkere enn mennesker kunne ikke forhindre det fra å nå sine mål. I sin artikkel Ethical Issues in Advanced Artificial Intelligence hevder Oxford-filosofen Nick Bostrom til og med at kunstig intelligens har kapasitet til å forårsake menneskelig utryddelse. Han hevder at superintelligensen er i stand til uavhengig initiativ og til å lage sine egne planer. Siden kunstige intelligenser ikke trenger å dele våre menneskelige motivasjonstendenser, vil det være opp til designerne av dette å spesifisere de opprinnelige motivasjonene. I teorien vil en ultraintelligent kunstig intelligens være i stand til å oppnå nesten alle mulige utfall og hindre ethvert forsøk på å forhindre implementeringen av dens primære mål, mange utilsiktede og ukontrollerte konsekvenser kan da oppstå. Han kunne drepe alle de andre agentene, overtale dem til å endre atferd, eller blokkere deres forsøk på å blande seg inn.
Bill Hibbard tilbyr en design av AI som unngår flere typer utilsiktet AI-oppførsel, inkludert selvdesillusjon, utilsiktet instrumental handling og korrupsjon av belønningsgeneratorer.
I sin film Singularity (2017) forestiller Robert Kouba seg at en supercomputer (Kronos) dekreter at mennesket er den største trusselen mot planeten, og søker å utrydde den menneskelige arten.
I stedet for å føre menneskeheten til utryddelse, mener Nick Bostrom at en superintelligens kan hjelpe oss med å løse mange vanskelige problemer som sykdom , fattigdom og miljøforringelse , og kan hjelpe oss. "Forbedre"
I møte med noen ganger kritisert bruk av kunstig intelligens, for eksempel overvåkingsapplikasjoner som tildeler en poengsum til kinesiske borgere, ønsker Europa å posisjonere seg som en garant for etikken til kunstig intelligens. 2018 en rådgivende komité med 52 eksperter, gruppen på høyt nivå om kunstig intelligens. .
Standard AI- etikkbibliografi er på PhilPapers .