Etikk for kunstig intelligens

Denne artikkelen er en oversikt over databehandling , robotikk og Semantic Web .

Du kan dele din kunnskap ved å forbedre den ( hvordan? ) I henhold til anbefalingene fra de tilsvarende prosjektene .

De etikk kunstig intelligens er domenet av etikken av teknologi  (i) bestemt til roboter og andre kunstig intelligente enheter  . Det er generelt delt inn i roboetikk , som bryr seg om menneskelig etikk for å veilede design, konstruksjon og bruk av kunstig intelligente vesener, og etikken til maskiner  (in) , bekymret for den moralske oppførselen til kunstige moralske agenter.

For filosofisk aspekt av kunstig intelligens, se Filosofi om kunstig intelligens .

Roboetikk

Roboethics  " vurderer det etiske aspektet ved design, konstruksjon, bruk og behandling av roboter av mennesker. Den vurderer både hvordan kunstig intelligente vesener kan brukes til å skade mennesket, og hvordan de kan brukes til fordel for mennesket.

Roboterettigheter

Rettighetene til roboter er samfunnets moralske forpliktelser til maskinene, lik menneskerettigheter  og dyrerettigheter . Disse kan omfatte retten til liv og frihet, til tanke- og ytringsfrihet og til likhet for loven . Saken ble behandlet av Institute for the Future  og Department of Trade and Industry  i  Storbritannia .

Eksperter er uenige i om spesifikke og detaljerte lover vil være nødvendig i en fjern fremtid. Glenn McGee rapporterer at et stort antall humanoide roboter kan dukke opp innen 2020.  Ray Kurzweil setter datoen til 2029. En annen gruppe forskere som møttes i 2007 spekulerte i at minst 50 år må gå før et system som er tilstrekkelig avansert ikke eksisterer.

Forstyrrelse av privatlivet

Den første kretsen til Aleksandr Solzhenitsyn beskriver bruken av teknologien til talegjenkjenning i tjeneste for tyranni. Hvis det finnes et AI-program som kan forstå naturlige stemmer og språk , kan det med tilstrekkelig prosessorkraft teoretisk lytte til hver telefonsamtale og lese hver e-post i verden, forstå dem og rapportere hva det er sagt og av hvem. Et AI-program som dette kan gjøre det mulig for regjeringer eller andre enheter å effektivt undertrykke dissens og angripe sine fiender.

Angrep på menneskeverdet

Joseph Weizenbaum argumenterte i 1976 for at AI-teknologi ikke skulle brukes til å erstatte mennesker i stillinger som krever respekt og omsorg, for eksempel:

Weizenbaum forklarer at vi trenger ekte følelser og empati fra menneskene i disse stillingene. Hvis maskiner erstatter dem, vil vi finne oss fremmedgjort, devaluert og frustrert. Kunstig intelligens, hvis den brukes på denne måten, utgjør en trussel mot menneskeverdet.

IA-grunnlegger John McCarthy motsetter seg den moraliserende tonen i Weizenbaums kritikk. "Når moralisering er både heftig og vag, innbyr den til autoritært misbruk," skriver han.

Bill Hibbard  (as)  skrev at "menneskelig verdighet krever at vi jobber for å eliminere vår uvitenhet om eksistensens natur, og AI er nødvendig for denne innsatsen. "

Åpenhet og åpen kildekode

Bill Hibbard hevder at fordi AI vil ha en dyp innvirkning på menneskeheten, er AI-utviklere representanter for fremtidens menneskehet og har derfor en etisk forpliktelse til å være gjennomsiktige i sitt arbeid. Ben Goertzel og David Hart opprettet OpenCog , et open source- rammeverk for utvikling av AI OpenAI  er et ideelt forskningsselskap opprettet av Elon Musk , Sam Altman og andre for å utvikle open source AI. Det er mange andre utviklinger av kunstig intelligens med åpen kildekode.

Kunstig intelligens og autonome våpen

Noen eksperter og akademikere har stilt spørsmålstegn ved bruken av roboter til militær kamp, ​​spesielt når disse robotene er utstyrt med en viss grad av autonomi. Den amerikanske marinen finansierte en rapport som sier at når militære roboter blir mer komplekse, bør mer oppmerksomhet rettes mot implikasjonene av deres autonomi. Forsker hevder at autonome roboter kan være mer menneskelige, ettersom de kan ta beslutninger mer effektivt .

Autonome våpen med AI kan utgjøre en annen type fare enn våpen som kontrolleres av mennesker. Mange regjeringer har startet finansieringsprogrammer for å utvikle kunstig intelligensbasert våpen. Den amerikanske marinen har kunngjort planer om å utvikle  autonome kampdroner , sammen med lignende kunngjøringer fra Russland og Korea.

Når det gjelder muligheten for å bruke smartere systemer militært, skriver Open Philanthropy Project at dette scenariet "synes potensielt å være like viktig som risikoen for tap av kontroll", men at forskningsorganisasjoner som undersøker den langsiktige sosiale effekten av AI brukte relativt lite tid. til denne bekymringen: “Denne klassen av scenarier har ikke vært et stort fokus for organisasjonene som er mest aktive på dette feltet, som for eksempel  Machine Intelligence Research Institute (MIRI) og Future of Humanity Institute (FHI), det ser ut til å ha vært mindre analyse og debatt om dem ”.

Åpne brev fra AI-samfunnet

"Forskningsprioriteter for en robust og gunstig kunstig intelligens" (2015)

Stephen Hawking , Elon Musk , Max Tegmark og mange andre fra det internasjonale kunstige intelligens- og roboticsamfunnet undertegnet et åpent brev om kunstig intelligens fra Future of Life Institute . Dette brevet “  FORSKNINGSPRIORITETER FOR ROBUST OG GODTGJENGELIG KUNSTIG INTELLIGENS  ” refererer til en separat publisert artikkel om AI-forskningsprioriteringer.

“Autonome våpen: et åpent brev fra forskere innen AI og robotikk” (2015)

Et åpent brev “  AUTONOMOUS WAPONS: AN OPEN BREV FRA AI & ROBOTICS FOREARCHERS  ” om autonome våpen blir publisert: “Hvis en større militærmakt går videre med utviklingen av kunstig intelligensvåpen, er et globalt våpenkappløp praktisk talt uunngåelig, og sluttpunktet av denne teknologiske banen er tydelig: autonome våpen blir morgendagens Kalashnikov " , uttalte begjæringen, som inkluderer medstifter av Skype , Jaan Tallinn og lingvistikkprofessor ved MIT Noam Chomsky som støttespillere mot å bevæpne AI. Meldingen fra Hawking og Tegmark indikerer at AI-våpen utgjør en umiddelbar fare, og at det er nødvendig med tiltak for å forhindre katastrofe i nær fremtid.

"Åpent brev til FNs konvensjon om visse konvensjonelle våpen" (2017)

Et annet åpent brev om konvensjonen om visse konvensjonelle våpen fra FN er målrettet mot å forby autonome våpen i FN-rammeverket. Dette brevet, ET ÅPNET BREV TIL DEN FORENEDE NASJONENS KONVENSJON OM VISSE KONVENSJONELLE VÅPN  " , er signert av Elon Musk fra Tesla og Mustafa Suleyman  (in) i alfabetet og av 116 spesialister fra 26 land.

“Dødelige autonome våpen truer med å bli den tredje våpenrevolusjonen. Når våpnene er utviklet, vil de gjøre det mulig å kjempe i væpnet konflikt på en skala som er større enn noen gang før, og til tider skalere raskere enn mennesker kan forstå. De kan være terrorvåpen, våpen som despoter og terrorister bruker mot uskyldige befolkninger, og piratkopierte våpen for å oppføre seg på uønskede måter. Vi har ikke lang tid å handle. Når denne Pandora's Box er åpen, vil det være vanskelig å lukke den. Vi ber derfor de høye kontraherende parter om å finne en måte å beskytte oss alle mot disse farene. "

Den kanadiske forskeren Yoshua Bengio skrev til statsminister Trudeau for å be, sammen med sine kolleger, "at Canada støtter trinnene som pågår i FN for å forby draproboter." Dette er grunnen til at jeg, sammen med Stephen Hawkins og Elon Musk, bidro til utviklingen av et nytt brev, denne gangen fra hele det internasjonale samfunnet innen kunstig intelligens og robotikk, og krevde en internasjonal traktat for å forby drapsmannroboter. "

Utstråling av etiske guider i kunstig intelligens og ikke-standardiserte prinsipper

Anna Jobin, Marcello Ienca og Effy Vayena fant etter å ha analysert 84 dokumenter 11 etiske prinsipper: åpenhet, rettferdighet / rettferdighet, ikke-maleficence, ansvar, respekt for privatliv eller privatliv, veldedighet, frihet og autonomi, tillit, bærekraft, menneskelig verdighet og til slutt solidaritet. Disse prinsippene er ordnet i en bestemt rekkefølge, fra de mest representerte til de minst representerte. Dokumentene de brukte kommer fra forskjellige typer institusjoner: privat sektor, offentlig sektor, akademiske og forskningsinstitusjoner, fagforeninger og vitenskapelige samfunn, ideelle organisasjoner osv. Prinsippene vises ikke alle systematisk i de etiske retningslinjene, etikken til kunstig intelligens er derfor ikke et enhetlig felt. Som forfatterne forklarer, er begrepet etikk innen AI en vag idé som kan dekke flere virkeligheter. Vi finner ikke noe etisk prinsipp som er felles for alle disse tekstene. Noen av dem fremdeles skiller seg ut mens andre finner seg underrepresentert. Spørsmålet om åpenhet, for eksempel, selv om det ikke vises i alle dokumenter, tegner en form for konvergens. I motsetning til dette blir prinsipper som (menneskelig) verdighet og bærekraft funnet å være underrepresentert. Denne forestillingen om bærekraft refererer mesteparten av tiden til det økologiske fotavtrykket til disse teknologiene, som er veldig datakrevende og derfor har et sterkt økologisk fotavtrykk. Bortsett fra det understreker forfatterne at dette prinsippet om bærekraft er nært knyttet til solidaritetsprinsippet. I denne forstand handler det, bortsett fra de negative virkningene som kunstig intelligens har på miljøet, om å skape en teknologi som kan vare, med data behandlet på en bærekraftig måte og hvis leksjoner kan brukes over tid. Kunstig intelligens kan utformes, utvikles og styres med sikte på å øke energieffektiviteten mens den begrenser det økologiske fotavtrykket. Prinsippet om solidaritet blir i de fleste tilfeller fremkalt med henvisning til tap av arbeidsplasser og erstatning av menneske med maskin. Forfatterne understreker at det er nødvendig å stille spørsmål ved dette prinsippet med hensyn til det humanitære spørsmålet, for å hjelpe til med å løse spesielt humanitære utfordringer. Løsninger for å gjøre kunstig intelligens mer etisk er nevnt i disse guidene. De etikk ved design eller etisk priori, for eksempel refererer til ideen om en etikk som ikke fokuserer på godkjenning av design av AI, men på oppstrøms av det. I flere år lyder spørsmål om etikk om kunstig intelligens mer og mer, i media, så vel som i alle involverte sfærer, som presset tilbaketrekningen av visse produkter, applikasjoner eller algoritmer fra det digitale markedet. Løsningen vil derfor være å tenke oppstrøms for designen, mulige drift av disse teknologiene for å begrense de skadelige konsekvensene. Tekniske løsninger gis i denne retningen, for eksempel prøver vi å sette opp teknikker for å " feilsøke " AI. Bortsett fra teknologi, finner vi i to dokumenter viktigheten av å beskytte varslere bedre , her refererer vi til forestillingen som ble forfalsket av Francis Chateauraynaud i 1996. Denne beskyttelsen kan gjøre det mulig å yte ytringsfrihet for å vekke bevisstheten om mulige drift av dette teknologi.

Prinsippene til Asilomar

Flere tusen underskrivere, inkludert Stephen Hawking og Elon Musk har "vedtatt en referanseguide for den etiske utviklingen av kunstig intelligens" . Disse prinsippene ble utviklet under Asilomar-konferansen i 2017.

Maskinetikk

Maskinetikk (eller maskinetikk) er forskningsområdet viet design av kunstige moralske agenter (AMA), roboter eller kunstig intelligente datamaskiner som oppfører seg moralsk.

Isaac Asimov undersøkte dette spørsmålet på 1950-tallet i The Robots . På insistering fra redaktøren John W. Campbell Jr. , foreslo han de tre lovene innen robotikk for å styre kunstig intelligente systemer. Mye av arbeidet hans ble deretter viet til å teste grensene for hans tre lover. Hans arbeid antyder at intet sett med faste lover i tilstrekkelig grad kan forutse alle mulige omstendigheter.

Noen eksperter og akademikere har stilt spørsmålstegn ved bruken av roboter til militær kamp, ​​spesielt når disse robotene er utstyrt med en viss grad av autonomi. Presidenten for foreningen for fremme av kunstig intelligens bestilte en studie for å undersøke dette problemet. De peker på språkoppkjøpsprogrammer for å etterligne menneskelig interaksjon.

Vernor Vinge foreslo et hypotetisk poeng i menneskelig sivilisasjon som kunne oppleve teknologisk vekst der noen datamaskiner blir smartere enn mennesker. Han kaller dette "  Singularity  ". Han antyder at det kan være veldig farlig for menneskeheten. Dette diskuteres av filosofien kalt singularitarisme . The Machine Intelligence Research Institute har foreslått behovet for å bygge "  vennlige kunstige intelligenser  ", som betyr at de fremskritt som allerede er i gang med AI bør også inkludere en innsats for å gjøre AI iboende vennlig og menneskelig.

I  Moral Machines: Teaching Robots Right from Wrot , Wendell Wallach og Colin Allen konkluderer med at forsøk på å lære robotrettigheter fra ondskap sannsynligvis vil forbedre forståelsen av menneskelig etikk ved å motivere mennesker til å fylle ut hullene i lov. Moderne normativ teori og gi en plattform for eksperimentell etterforskning. Nick Bostrom og Eliezer Yudkowsky argumenterte for beslutningstrær (som ID3 ) på nevrale nettverk og genetiske algoritmer med den begrunnelse at beslutningstrær overholder moderne sosiale standarder for gjennomsiktighet og forutsigbarhet.

Etikkvask

Innen kunstig intelligens setter spørsmålstegn ved henvendelse fra etiske prinsipper til begrepet etikkvask. Dette uttrykket refererer til fenomenet som ville gjøre etikk, et salgsargument, et motefenomen. I denne forstand  stiller de "  etiske retningslinjene ", laget av selskaper og for seg selv, spørsmålstegn ved hva som ligger bak forestillingen om etikk. Flere forfattere peker fingrene mot talene om kunstig intelligens som holdes av visse personligheter som Elon Musk , Bill Gates eller til og med Stephen Hawking . De ser ut til å forvandle science fiction til vitenskap, som bringer oss tilbake til fenomenet transhumanisme eller teknologisk singularitet fremkalt av Jean-Gabriel Ganascia . Denne forestillingen om etikkvask ser ut til å stille spørsmål ved årsakene til at så mange aktører tar i bruk denne oppfatningen av etikk i kunstig intelligens. Det ville være et spørsmål om interessen til disse veilederne er legitim, eller om det handler om et middel for å bryte kontroversen og begrense interferens fra en tvangsmakt som vil hindre søket etter skuespillerne.

Uforutsette konsekvenser

Mange forskere har hevdet at, som en del av en "eksplosjon av intelligens" i XXI th  århundre, kan en selv forbedret AI blitt så mye sterkere enn mennesker kunne ikke forhindre det fra å nå sine mål. I sin artikkel  Ethical Issues in Advanced Artificial Intelligence hevder Oxford-filosofen Nick Bostrom til og med at kunstig intelligens har kapasitet til å forårsake menneskelig utryddelse. Han hevder at superintelligensen er i stand til uavhengig initiativ og til å lage sine egne planer. Siden kunstige intelligenser ikke trenger å dele våre menneskelige motivasjonstendenser, vil det være opp til designerne av dette å spesifisere de opprinnelige motivasjonene. I teorien vil en ultraintelligent kunstig intelligens være i stand til å oppnå nesten alle mulige utfall og hindre ethvert forsøk på å forhindre implementeringen av dens primære mål, mange utilsiktede og ukontrollerte konsekvenser kan da oppstå. Han kunne drepe alle de andre agentene, overtale dem til å endre atferd, eller blokkere deres forsøk på å blande seg inn.

Bill Hibbard tilbyr en design av AI som unngår flere typer utilsiktet AI-oppførsel, inkludert selvdesillusjon, utilsiktet instrumental handling og korrupsjon av belønningsgeneratorer.

I sin film Singularity (2017) forestiller Robert Kouba seg at en supercomputer (Kronos) dekreter at mennesket er den største trusselen mot planeten, og søker å utrydde den menneskelige arten.

I stedet for å føre menneskeheten til utryddelse, mener Nick Bostrom at en superintelligens kan hjelpe oss med å løse mange vanskelige problemer som sykdom , fattigdom og miljøforringelse , og kan hjelpe oss. "Forbedre"

Etikken til kunstig intelligens og Europa

I møte med noen ganger kritisert bruk av kunstig intelligens, for eksempel overvåkingsapplikasjoner som tildeler en poengsum til kinesiske borgere, ønsker Europa å posisjonere seg som en garant for etikken til kunstig intelligens. 2018 en rådgivende komité med 52 eksperter, gruppen på høyt nivå om kunstig intelligens. .

Litteratur

Standard AI- etikkbibliografi er på  PhilPapers .

Se også

ForskereOrganisasjoner

Referanser

  1. [1] Andreas Kaplan. 2020. Kunstig intelligens: vekt på etikk og utdanning. International Journal of Swarm Intelligence and Evolutionary Computation, 9 (3)
  2. (i) Veruggio, Gianmarco, The Roboethics veikart , Scuola di Robotica,2007( les online [ arkiv av15. august 2011] ),s.  2.
  3. (in) Woody Evans , Posthuman Rights: Dimensions of Transhuman Worlds , Universidad Complutense Madrid2015( les online ).
  4. The American Heritage Dictionary of the English Language , fjerde utgave.
  5. (in) "  Roboter kunne kreve juridiske rettigheter  " , BBC News ,21. desember 2006( les online , konsultert 3. januar 2010 ).
  6. (i) Mark Henderson , "  Menneskerettigheter for roboter? Vi lar oss rive med  ” , The Times Online , The Times of London,24. april 2007( les online , konsultert 2. mai 2010 ).
  7. (i) Glenn McGee , "  A Robot Code of Ethics  " , The Scientist .
  8. (in) Ray Kurzweil , The Singularity is Near  : When Humans Transcend Biology , Penguin Books ,2005, 652  s. ( ISBN  0-670-03384-7 ).
  9. Det store spørsmålet: Bør menneskeheten være bekymret for fremveksten av roboter? , Uavhengig avis.
  10. ( McCorduck 2004 , s.  308).
  11. Joseph Weizenbaum , sitert i McCorduck 2004 , s.  356, 374–376.
  12. Hibbard, Bill (2014): "Etisk kunstig intelligens" .
  13. Åpen kildekode AI. Bill Hibbard. 2008 forhandlinger av den første konferansen om kunstig generell intelligens, red. Pei Wang, Ben Goertzel og Stan Franklin.
  14. OpenCog: A Software Framework for Integrative Artificial General Intelligence. David Hart og Ben Goertzel. 2008 forhandlinger fra den første konferansen om kunstig generell intelligens, red. Pei Wang, Ben Goertzel og Stan Franklin.
  15. Inne i OpenAI, Elon Musks ville plan for å sette kunstig intelligens fri Cade Metz, kablet 27. april 2016.
  16. Innkalling til debatt om morderroboter , av Jason Palmer, Science and technology reporter, BBC News, 08.03.2009.
  17. Robot Three-Way Portends Autonomous Future , av David Axe wired.com, 13. august 2009.
  18. Ny marinestøttet rapport Warns of War Robots Going "Terminator" , av Jason Mick (Blogg), dailytech.com, 17. februar 2009.
  19. Navy-rapporten advarer mot robotopprør, antyder et sterkt moralsk kompass , av Joseph L. Flatley engadget.com, 18. februar 2009.
  20. GiveWell, potensielle risikoer fra avansert kunstig intelligens ,2015( les online ).
  21. Åpen brev FORSKNINGSPRIORITETER FOR ROBUST OG GODTGJENGELIG KUNSTIG INTELLIGENS
  22. AUTONOMOUS WAPONS: A OPPEN LETTER FRA AI & ROBOTICS FOREARCHERS Dette åpne brevet ble kunngjort 28. juli ved åpningen av IJCAI 2015-konferansen 28. juli.
  23. (in) Cat Zakrzewski, "  Musk Hawking Warn of Artificial Intelligence Weapons  " , WSJ .
  24. (i) Zach Musgrave og Bryan W. Roberts, "  Hvorfor kunstig intelligens kan bli for lett våpen - Atlanteren  " , Atlanterhavet .
  25. ET ÅPENT BREV TIL DEN FORENEDE NASJONENS KONVENSJON OM VISSE KONVENSJONELLE VÅPN
  26. Bengio 2017
  27. (i) Anna Jobin , Marcello Ienca og Effy Vayena , "  Det overordnede landskapet AI etiske retningslinjer  " , Nature Machine Intelligence , vol.  1, n o  9,september 2019, s.  389–399 ( ISSN  2522-5839 , DOI  10.1038 / s42256-019-0088-2 , leses online , åpnes 14. juni 2021 )
  28. "  Varsler og varslere  " , på www.puf.com (åpnet 14. juni 2021 )
  29. "23 prinsippene til Asilomar" ønsker å ramme utviklingen av kunstig intelligens
  30. ASILOMAR AI PRINSIPPER
  31. (in) Anderson , "  Machine Ethics  " (åpnet 27. juni 2011 )
  32. (in) machine Ethics , Cambridge University Press ,juli 2011( ISBN  978-0-521-11235-2 )
  33. (in) "  Special Issue one machine Ethics  " , IEEE Intelligent Systems , vol.  21, nr .  4, juli-august 2006, s.  10–63 ( ISSN  1541-1672 , DOI  10.1109 / mis.2006.70 , les online )
  34. (i) Michael Anderson og Susan Leigh Anderson , "  Machine Ethics: Creating an Ethical Intelligent Agent  " , American Association for Artificial Intelligence , vol.  28, n o  4,vinter 2007, s.  15–26 ( ISSN  0738-4602 , les online )
  35. (in) Isaac Asimov , I, Robot , NY, Bantam,2008, 224  s. ( ISBN  978-0-553-38256-3 og 0-553-38256-X )
  36. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study , Association for the Advancement of Artificial Intelligence, Tilgang 26.6.09.
  37. Scientists Worry Machines May Outsmart Man Av JOHN MARKOFF, NY Times, 26. juli 2009.
  38. The Coming Technological Singularity: How to Survive in the Post-Human Era , av Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 av Vernor Vinge.
  39. Artikkel på Asimovlaws.com mal feil {{Arkiv link}}  :|titre= fyll i en "  " parameter  , juli 2004 åpnet 7/27/09.
  40. (i) Wendell Wallach og Colin Allen , Moral Machines: Teaching Robots Right from Wrong , USA, Oxford University Press ,November 2008, 275  s. ( ISBN  978-0-19-537404-9 )
  41. (i) Nick Bostrom og Elieser Yudkowsky , "  The Ethics of Artificial Intelligence  " [PDF] , Cambridge Handbook of Artificial Intelligence , Cambridge Press ,2011
  42. Jean-gabriel Ganascia , Myten om singulariteten. Bør vi frykte kunstig intelligens? , Editions du Seuil,2. februar 2017( ISBN  978-2-02-131001-6 , les online )
  43. Muehlhauser, Luke og Louie Helm. 2012. "Intelligence Explosion and Machine Ethics" . In Singularity Hypoteses: A Scientific and Philosophical Assessment, redigert av Amnon Eden, Johnny Søraker, James H. Moor og Eric Steinhart. Berlin: Springer.
  44. Bostrom, Nick. 2003. "Etiske spørsmål i avansert kunstig intelligens" . I kognitive, emosjonelle og etiske aspekter ved beslutningstaking hos mennesker og i kunstig intelligens, redigert av Iva Smit og George E. Lasker, 12–17. Flygning. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  45. (no-US) "  Visst, kunstig intelligens kan avslutte vår verden, men det er ikke hovedproblemet  " , på WIRED (åpnet 4. november 2015 )
  46. Camcha sa , "  I Kina, har sosiale scoring i Black Mirror forhindret millioner av turer  "DNA ,20. mars 2018(åpnet 21. januar 2019 )
  47. Johanna Diaz , "  EU-kommisjonen avdekker den europeiske AI-alliansen og de 52 ekspertene fra sin rådgivende komité for AI  " , om Actu IA ,15. juni 2018(åpnet 21. januar 2019 )
  48. Müller, Vincent C. (2016).

Bibliografi

  • (no) Pamela McCorduck, Machines Who Think: A Personal Enquiry in the History and Prospects of Artificial Intelligence ,2004, 2 nd  ed. , 565  s. ( ISBN  1-56881-205-1 )

Eksterne linker