Den determinisme som konsept matematikk ble født med formalisering av matematikk ved slutten av XIX th tallet og begynnelsen av XX th århundre og ble en sentral forestilling om computability med utseendet på teorien om automater i midten av XX th århundre . Fremveksten av quantum computing i slutten av XX th århundre og den sterke utformingen av tesen om kirke-Turing , kjent avhandling kirke-Turing-Deutsch , kan utforme en beregnings syntese mellom determinisme og determinisme fysikk fremmes av skolen av digital fysikk, som Proposisjonen "it from bit" har blitt emblemet.
Mysteriet om eksistensen av korrespondanser mellom visse naturfenomener og matematiske prinsipper ble først uttrykt i Pythagoras- skolen under læren om sfærenes harmoni . På den annen side var det nødvendig å vente på at Kant virkelig skulle utgjøre problemet.
Det store spørsmålet som ble stilt av Kant i sitt hovedverk " Kritikken av ren fornuft ", gjelder muligheten for eksistensen av syntetiske matematiske proposisjoner a priori . På den tiden var det umulig å forstå at disse proposisjonene er algoritmer i moderne forstand som definert av Church og Turing, de er syntetiske, det vil si (i Kants betegnelse) øke kunnskapen, i begrepet kalkulerbarhet genererer de informasjon. De er imidlertid a priori, det vil si anterior til opplevelsen (i Kants betegnelse), og dette er grunnleggende. Resultatet av beregningen av en algoritme kan ikke være kjent før opplevelsen av å utføre beregningen, men den eksisterer imidlertid før opplevelsen av denne beregningen. Matematisk analyse er ikke et triks for å unngå nødvendigheten av beregning, men for å redusere antallet nødvendige algoritmiske trinn, bare anvendelig for komprimerbare algoritmer som forskjellige funksjoner; det skal ikke antas, som den historiske opprinnelsen til navnet antyder, at det gjør det mulig å transformere et analytisk forslag til et syntetisk forslag.
Kant ble ekstremt rystet over tilstrekkelig Newtons fysiske ligninger til den fenomenologiske virkeligheten; hvordan kan en enkel omvendt avstandslov og den euklidiske avstandsmetrikken generere ellipser? Hvordan kan disse ellipsene oppstå fra matematisk prosessering og tilsvare virkeligheten til planetbaner? Kant kommer til den konklusjonen at dette bare er mulig ved eksistensen av a priori-begreper som tid og rom og ved eksistensen av rene forståelsesbegreper som prinsippet om substansens varighet og samtidighet, som tillater anerkjennelse av forskjellige objekter samt kausalitetsprinsippet.
På den annen side, når disse begrepene er for Kant a priori (før noen erfaring og derfor medfødte), kan det ikke være noen reell korrespondanse mellom noumenon (verden i seg selv) og fenomenet (den oppfattede verden). Derfor eksisterer tid og rom så vel som kausalitet bare for mennesket og er ikke realiteter i verden; matematikk, for Kant, er et rent menneskelig produkt og korrespondanse med verden en menneskelig formatering. Dette designet var på plass før i begynnelsen av XX th århundre og forlot spørsmålet om ekstraordinære effektiviteten av matematikk åpne for alle som tvilte uvirkelighet av tid, rom og kausalitet.
Lamarckian, den gang darwinistiske evolusjonsteorien, gjør det mulig å fremheve Kants feil: a priori er ikke synonymt med medfødt. Som en verdig etterfølger av Kant-formannen, korrigerte Konrad Lorenz teorien om kunnskap om sistnevnte. I følge Lorenz ble de a priori begrepene forståelse som den sentrale representasjonen av rom og kausalitet smidd av mekanismen for naturlig seleksjon gjennom konfrontering av virkeligheten med oppførselen til dyr; det naturlige utvalget har favorisert organismer som er i stand til å representere rommet så godt som mulig, og de andre begrepene på forhånd. Forestillingene om medfødt og a priori er derfor ikke lenger kompatible, de a priori begrepene er resultatet av konfrontasjonen, via erfaring, av dyr med håndgripelig virkelighet. Denne opplevelsen utføres ikke av organismer under deres personlige eksistens, men av naturlig seleksjon under utvikling av levende ting.
Hvis Kant forstod at tid, rom, muligheten for å skille mellom objekter og kausalitet er nødvendig for eksistensen av matematikk, ble det derimot mye forstått hvordan disse kommer sammen for å tillate beregningsevne å komme frem senere med teoriens utseende. av automata .
Teorien om automatikk gjorde det mulig å avklare de nødvendige og tilstrekkelige forholdene for at et system skulle ha kraften til Turing-maskinen , det vil si de forskjellige egenskapene til et deterministisk system.
I det spesielle tilfellet med en automat må determinismen være begrenset til maskinen og reproduserbar , noe som er vitenskapelig i henhold til visse epistemologiske aksept, og den ligger i evnen til å starte maskinen når som helst for å regenerere den samme sekvensen. tall. Vi vil merke at denne maskinen kan være hvilken som helst maskin som utfører et deterministisk vitenskapelig eksperiment. Hvis det virkelig er umulig å lage en maskin med større kraft enn Turing-maskinen , en påstand som faller inn under Kirkens avhandling , det vil si som kan gi en serie tall som ingen datamaskiner kan gi, vil vi si at universet er ekvivalent til Turing-maskiner.
Siden universet er Turing-komplett , overholder det disse prinsippene på en eller annen måte, noe som gjenspeiler Chomskys hierarki .
Dette prinsippet som uttrykker at tilstanden til systemet bestemmes strengt av den forrige tilstanden, tillater i seg selv bare å generere et sett med tall som er så dårlige at det generelt utelates (endelig valggrammatikk). En automat som bare tar hensyn til dette prinsippet er bare en kjede av tilstandsendringer. I universet er det tid som tillater en slik sekvens, og sterkere er det i seg selv bare en kjede av tilstandsendringer.
Dette prinsippet tillater systemet å "gjenkjenne" visse elementer og å endre tilstand i henhold til denne anerkjennelsen. Det må være minst to forskjellige og gjenkjennelige typer elementer for at prinsippet skal være aktuelt; disse er vanligvis symbolisert av det binære alfabetet {0,1}. Et system med dette tilleggsprinsippet har kraften til statsmaskiner . Tradisjonelt er det eksistensen av kraft som tillater interaksjoner som tillater universet å adlyde dette prinsippet.
Systemet skal ikke bare kunne gjenkjenne et element, men også å generere (huske) dem i en fast rekkefølge, eller å plassere dem på en slik måte at de kan telles. Hvis det kognitive prinsippet er destruktivt og det faktum å "gjenkjenne" elementet ødelegger det, har systemet kraften til å trykke ned automatene , i motsatt tilfelle av endelige Turing-maskiner . I universet er det rommet som gir støtte til memorisering, slik at du kan ordne saken slik at gjenstandene kan telles. Alle interaksjoner mellom objekter i universet er ikke-destruktive; de invarianter holdes.
Hvis systemet har uendelig minne og tid ikke er en begrensning, genererer systemet rekursivt tallrike språk .
Uforutsigbarheten til visse fysiske systemer ble formelt demonstrert i 1936 av Alan Turing i grunnleggende artikkel om datavitenskap; en bestemt type fysisk system, datamaskinen, er formelt uforutsigbar hvis den har uendelig minne. Han viser at det ikke kan være noe program for en datamaskin for å avgjøre om et annet program vil stoppe eller fortsette å kjøre for alltid ( shutdown problem ). Han demonstrerer også at datamaskinen utgjør et formelt grunnlag for beregning ( Church-Turing-avhandling ) og derfor at ingen matematisk teori en dag vil være i stand til å finne en løsning på dette problemet som formelt er uoppløselig. Historisk sett er dette et svar på Hilberts tredje problem i entscheidungsproblem .
Når det gjelder minnedatamaskiner med begrenset størrelse , vil det være tilstrekkelig å vente på at programmet skal utføre skriveoperasjoner til minnet for å fastslå at det aldri vil stoppe. På den annen side, hvis programmet stopper, vil det stoppe før noe program prøver å avgjøre om det stopper eller ikke; forutsigbarhet krever ikke bare å kunne beregne utfallet, men også å gjøre det før det skjer.
Ufullstendigheten av ethvert formelt system ble demonstrert av Kurt Gödel i 1931. Hvis universet tilsvarer Turing-maskiner, er dette også ufullstendig.
Ufullstendigheten er vanskelig å forestille seg for en endelig sekvens av tall, det er faktisk alltid mulig å lage en algoritme som genererer denne endelige sekvensen. På den annen side er det bare mulig å designe en algoritme som er mindre (kodet med færre biter) enn selve sekvensen for et veldig begrenset sett med tallsekvenser. Den Kolmogorov kompleksitet (oppkalt etter matematikeren Andrey Kolmogorov) er et mål på den kompressibilitet av informasjonen.
Fysikkens suksess skyldes dens evne til å forenkle komplekse fenomener til de passer inn i en liten ligning. For eksempel er det mulig å modellere gravitasjonsattraksjonen mellom to legemer ved å kombinere de individuelle attraksjonene til hvert av atomene som utgjør kroppene og kun ta i betraktning det resulterende massesenteret. Dessverre gjelder ikke dette prinsippet om informasjonskomprimering for alle fenomener, noen algoritmer er komprimerbare.
Det kognitive prinsippet gjør det mulig å definere informasjon som det som tillater endring av tilstanden til en automat eller på en ekvivalent måte eksistensen av et deterministisk fenomen. Prinsippet om memorisering som en hvilken som helst ordning av elementer i rommet (form) som for eksempel enhver sekvens av symboler produsert av en automat eller, på en tilsvarende måte, produktet av et deterministisk fenomen.
Denne dobbelte visjonen om informasjon gjenspeiler den dobbelte visjonen til automaten som både er språkakseptor og språkgenerator. Begrepet orden kan defineres som den algoritmiske kompleksiteten som er nødvendig for å generere en sekvens av symboler, den optimale forstyrrelsen som en ukomprimerbar sekvens eller på en ekvivalent måte som et resultat av et ikke-deterministisk fenomen.