Vitenskapsteori, eller vitenskapsfilosofi, er den grenen av filosofien som undersøker vitenskap(ene) og dens/deres struktur, metodikk, grunnlag og betydning. Et mål har vært å klassifisere vitenskapene etter deres metodiske prinsipper i formale eller deduktive vitenskaper (for eksempel matematikk) og i empiriske eller induktive vitenskaper (for eksempel fysikk og psykologi).[1]
Sentrale vitenskapsteoretiske spørsmål er: Hva er vitenskap? Hva gjør en teori troverdig? Hva kjennetegner og hvordan oppnås vitenskapelig fremskritt, og hva er poenget med vitenskap? Feltet overlapper med metafysikk, ontologi og epistemologi for eksempel når en utforsker forholdet mellom vitenskap og sannhet. Vitenskapsteori har også mange berøringspunkter med forskningsetikk, metodologi, erkjennelsesteori, vitenskapshistorie og -sosiologi.
Mange sentrale problemer innen vitenskapsfilosofien er det ikke enighet om, blant annet om vitenskapen kan avdekke sannheter om det vi ikke kan observere, eller om vitenskapelig funderte beslutninger kan tas i det hele tatt. Antipositivistene er talsmenn for bruk av hermeneutiske eller fenomenologiske metoder i samfunnsvitenskapene. Positivistene, empirisk orienterte vitenskapsfilosofer, ser den hypotetisk-deduktive metode som en sentral vitenskapelig metode, og har satt studiet av vitenskapens logiske strukturer i sentrum.[1] I tillegg til generelle problemstillinger diskuterer vitenskapsfilosofer også problemer innen avgrensede felt, som biologi, fysikk eller humaniora.
Utvikling
Vitenskap og filosofi har påvirket hverandre siden Aristoteles' tid, men vitenskapsfilosofi ble en egen disiplin først på 1900-tallet.
Aristoteles var tilhenger av nøye observasjoner (ikke eksperimenter) som utgangspunkt for viten, og målet var å finne, organisere og vise empiriske data for ut fra det trekke generelle slutninger.[2] Hans verk "Organon" skilte mellom induktiv og deduktiv viten, og ble utgangspunkt for vitenskap gjennom antikken og middelalderen.
Ibn al-Haytham og Roger Bacon bidro til etableringen av eksperimentell metodikk, og anses som grunnleggere av moderne vitenskap.
Francis Bacon kritiserte i sin bok "Novum Organum" Aristoteles metode som for rask til å trekke generelle konklusjoner. Bacon og Galileo Galilei mente at naturen burde beskrives med matematikk og geometri, og Bacon laget en metodikk for systematisk observasjon, koblet med korreksjon av sansene, som viste seg å være lite praktisk.
Isaac Newton argumenterte for sitt system basert på fenomener og usynlige krefter. Dette ble i samtiden sett på som uvitenskapelig, ettersom det maglet "ekte" fysiske krefter og ikke var bygd opp logisk basert på en første årsak. Svaret kom i form av fire regler om årsak og virkning, og Newton sa at “hypotheses non fingo” - jeg danner ingen hypoteser, fordi han mente han kun forklarte observasjonene.
David Hume var opptatt av "problemet med induksjon", og problematiserte Newtons tro på at generelle regler kan utledes fra enkelthendelser. Hume var skeptisk til forklaringer basert på usynlige eller teoretiske krefter, og ble på 1900-tallet en favoritt blant positivistene. Hume mente at naturens lovmessigheter var egnet til å beskrive hva som har skjedd, men at vi ikke kan vite sikkert at framtiden blir den samme som fortiden fordi antakelsen er basert på verden slik den var, ikke slik den blir.[3]
John Stuart Mill og William Whewell debaterte induksjon og hypotetisk deudukiv metodikk på 1800-tallet. Whewell hevdet at viten var et produkt av objektiv observasjon og av subjektiv forståelse, og var kritisk til Mill's tiltro til sansene. Mill mente viten ble til ved at å lete etter sammenhenger og systemer, og så etter videre observasjon gjøre sammenhengene som holdt gradvis om til lover. Deretter må lovene testes mot hverandre, og må revideres hvis de ikke er konsistente.[2]
Charles Sanders Peirce anså viteskap som sannsynlighet, ikke sannhet, brukte statistiske metoder og innførte i 1884 blinde, randomiserte tester.[4]
Relativismen og kvantefysikken som kom tidlig på 1900-tallet påvirket forståelsen av vitenskap ved å endre forståelsen av tid og rom. En observasjon var ikke lenger selvforklarende, og det ble nødvendig å skille hvordan hypoteser lages og den underliggende, kanskje ubevisste, tankegangen forskere bruker når de vurderer hypotesens forhold til data.
Rudolf Carnap prøvde i "Der logische Aufbau der Welt" (1928) å lage et aksiomatisk system for vitenskaps-teori. Han mente teoretiske eller ikke observerbare størrelser (f.eks. elektron) var meningsfulle dersom de kunne reduseres til observasjoner eller hadde analytisk mening (f.eks. matematiske størrelser), mens størrelser som ikke oppfylte dette kriteriet var meningsløse.[2]
Carl Gustav Hempel var uenig med Carnap's "verifiserbarhetskriterium", og mente at universelle lover og generaliseringer ikke var meningsfulle ifølge kriteriet. Forskere utfører ikke eksperimenter for å gi mening til termer i et logisk system, og Hempel mente Carnaps metode ikke samsvarte med praktisk forskning.[2] Hempel beskrev i 1966 den hypotetisk deuktive metode med legen Ignaz Semmelweis undersøkelser av barselfeber som eksempel. Selv om metoden ikke kan bevise at noe er sant, kan den gi støtte til hypotesen.
Hempels paradoks, eller ravne-paradokset, tar utgangspunkt i hypotesen om at alle ravner er svarte. Logisk impliserer det at alle ikke-svarte er ikke-ravner, så dersom noe ikke er svart er det ikke en ravn. Et grønt eple er ikke svart, og er dermed ikke en ravn - en observasjon som kan brukes til å styrke hypotesen om at alle ravner er svarte. Hempel mente at vår intuisjon og erfaring vil føre til at vi vektleger observasjoner av ravner mer enn observasjoner av epler i forhold til hypotesen.[2]
Karl Popper satte fokus på at teorier kun er vitenskapelige dersom de kan falsifiseres. Viten gjennom induksjon er assymetrisk, og en mulig observasjon av en "gul ravn" vil så tvil om tusenvis av observasjoner av svarte ravner. Falsifiserbarhet er derimot deduktiv, og man kan tenke ut at en gul, grønn eller hvit ravn vil motbevise hypotesen om at alle ravner er svarte. Popper var også opptatt av at andre typer "vitenskapelige" teorier, som Marxisme eller psykoanalyse, ikke er falsifiserbare, og må regnes som pseudo-vitenskapelige.
Thomas Kuhn skrev i 1962 boken The Structure of Scientific Revolutions som utfordret tanken om at vitenskap vokser frem som en sakte, kummulativ prosess basert på faste metoder og systematiske eksperimenter. Han argumenterte for at paradigmet avgjør hvilke eksperimenter forskere gjør, og hvilke spørsmål de stiller.[5]
Statistikk åpnet for en ny problemstilling, hvorvidt statistikk viser numerisk hvor sterk en hypotese er, eller om statistikken først og fremst gir en retning for hvilke valg og metoder som må brukes fremover.
Ronald Fisher mente hypoteser burde forkastes hvis resultatene var usannsynlige i forhold til hypotesen. Jerzy Neyman og Karl Pearson mente derimot at hvordan man forholder seg til hypotesen var viktigst, og laget et skille mellom det å forkaste en sann hypotese på bakgrunn av sviktende data, og det å akseptere en gal hypotese på samme grunnlag. Fisher var opptatt av sannhet, mens Neyman-Pearson mente at det viktige var ikke om en hypotese er sann, men om man skal handle som om den var det.
I nyere filosofi har diskusjonen vært mellom "Bayesianisme", som forstår sannsynlighet som personens tiltro til hypotesen, og "frekventismen" som forstår sannsynlighet som frekvensen av en repeterbar hendelse over lang tid.
Demarkasjonsproblemet
Skillet mellom vitenskap og ikke-vitenskap kalles demarkasjonsproblemet. Er f.eks. psykoanalyse vitenskap, inflasjonsteorien, eller makroøkonomi? Karl Popper mente dette var vitenskapens mest sentrale spørsmål, mens andre har ansett problemet som uløselig eller uinteressant.
Aristoteles (384–322 f.kr.) mente at vitenskap måtte handle om årsaker, måtte kunne demonstreres logisk og må ha observerbar sikkerhet.
Tidlige logiske positivister mente at vitenskap var observerbar mens ikke-viten ikke kunne observeres og var "meningsløs" metafysikk. Popper mente at falsifiserbarhet var vitenskapens sentrale egenskap, og at det som kan motbevises (i prinsippet), men ennå ikke er motbevist er vitenskap.
Thomas Kuhn (1922-1996) delte vitenskap inn i normal vitenskap og ekstraordinær vitenskap. Normal vitenskap følger vitenskapelig metode, og bygger sakte kunnskap lag på lag. Ekstraordinær vitenskap fører til et paradigmeskift og revolusjonerer vitenskapen slik at tidligere teorier og resultater må tolkes på nytt.
Paul R. Thagard (1951-) lanserte to prinsipper for ikke-vitenskap:
En teori har hatt mindre fremgang enn alternative teorier over tid, og har mange uøste problemer og ..
Forskere gjør få forsøk på å utvikle teorien for å løse problemene, bryr seg lite om hva andre relaterte teorier sier, og er selektiv i forhold til hva som anses som bekreftelse og avkreftelser.
Larry Laudan (1941-2022) mente at det var bedre å begrunne rasjonalitet med fremgang enn fremgang med rasjonalitet. Filosofien har, hevder Laudan, ikke "levert varene" i forhold til demarkasjonsproblemet. Forskere bør godta de teoriene som løser flest problemer, men følge den vitenskapstradisjonen som er mest suksessrik.[6] Laudan vektla at Kuhns paradigmeskifter ikke kom på alle fagområder samtidig, og hvorvidt en overbevisning er velfundert er et praktisk og filosofisk spørsmål mer enn det er vitenskapelig. Skillet mellom vitenskap og ikke-vitenskap er ifølge Laudan et pseudo-problem, og fokus burde være på hva som er velbegrunnet og ikke. Begreper som "pseudo-vitenskap" eller "uvitenskapelig" mente han passet bedre som retorikk for politikere og skotske vitenskaps-sosiologer enn for empiriske forskere.[7]
Historiker Michael D. Gordin (1974-) har uttalt at studenter får så mye undervisning om vitenskap at "myten om en klar demarkasjonslinje er essensiell".[8]
Induksjonsproblemet
Induksjonsproblemet er problemet med å begrunne gyldigheten og demonstrere det fornuftige grunnlaget for å trekke generelle slutninger basert på individuelle observasjoner (induksjon).[9] Ved bruk av induksjon kan observasjoner omgjøres til generelle lover, f.eks. som at: "Alle svaner er hvite", på bakgrunn av at alle en har møtt bare har sett hvite svaner. Induksjon forutsetter også at slik det har vært til nå vil det også fortsette å være.
Induksjon som metode er avgjørende for hverdaglige beslutninger og for vitenskapelig tenking.
David Hume belyste dette problemet og mente det var uløselig. Prinsippet om at naturen er uniform og forutsigbar kan ikke bevises ved utledning (deduksjon) men heller ikke induktivt via observasjon. Induktive slutninger må enten være rasjonelle eller være fantasi, og dersom naturens forutsigbarhet ikke kan forklares rasjonelt, må generelle slutninger være fantasi, eller vaner.[10] Utfordringen var, ifølge Hume, å skille gode indiktive vaner fra dårlige og upålitelige vaner. "Humes gaffel" skilte mellom det analytiske, idéene som kan skille sannhet fra løgn, men ikke si noe om virkeligheten, og det syntetiske, observasjoner som kan si noe om virkeligheten, men ikke om noe er sant.
Bertrand Russell (1872-1970) illustrerte problemet med induksjon ved å tenke på en bonde som hver dag gir hønene sine mat, og de kommer i visshet om at de får mat. En dag vil bonden likevel vri nakken om på høna - og bevise for hønene at et mer nyansert syn på naturens forutsigbarhet hadde vært nyttig.
Rudolf Carnap (1891-1970) mente at forskjellige induktive fremgangsmåter ville virke klargjørerende.
Direkte slutninger sier noe om hyppigheten av noe i et utvalg basert på hyppigheten i populasjonen utvalget kommer fra.
Prediktive slutninger trekkes fra en prøve til den neste, der de to ikke overlapper.
Slutninger ved analogi trekkes ved at egenskaper hos ett individ er utgangspunkt for andre med samme egenskaper.
Inverse slutninger sier noe om en populasjon basert på viten om et utvalg fra populasjonen.
Universelle slutninger bruker et utvalg til å lage en universell hypotese.
Carnap var opptatt av sannsynlighet, og var viktig for logisk positivisme som filosofisk retning, der verifiserbarhet ble ansett som svært viktig.
Den amerikanske filosofen Nelson Goodman (1906-1998) introduserte forutsigelsen "grue" som en egenskap til noe som er grønt men bytter farge til blå. Han framsatte to hypoteser:[11]
Alle smaragder observert til nå er grønne, og ved induksjon kan vi anta at alle er grønne, også etter tiden t.
Alle smaragder observert til nå er grønne, og ved induksjon kan vi anta at alle er "grue", slik at alle etter tiden t vil være blå.
Begge hypotesene støttes av funn av grønne smaragder, og bekreftes av de samme dataene, selv om resultatet etter tiden t er helt forskjellig.
Vitenskap bruker ikke induksjon, mente Karl Popper (1902-1994), men baserer seg på hypoteser og kritikk. I stedet for å lete etter bevis må vitenskapen lete etter feil. I The Logic of Scientific Discovery sier Popper: "Det beste vi kan si om en hypotese er at til nå har den klart å vise sin verdi, og at den har vært mer vellykket enn andre hypoteser, selv om, i prinsippet, deen aldri kan rettferdiggjøres, bekreftes eller vises sannsynlig."[10] Popper mente at først må man finne ut om en teori er sann, basert på empiriske bevis, og deretter må man rettferdiggjøre at denne teorien er bedre enn andre teorier som støttes av de samme bevisene. Begge disse er ifølge Popper uløselige.
Normativ vitenskapsteori
Man kan også dele inn vitenskapsteorien i deskriptiv og normativ vitenskapsteori.
Normativ vitenskapsteori handler om hvordan forskere bør gå frem for å oppnå vitenskapelig fremskritt.
En av de mest betydningsfulle vitenskapsfilosofene var Karl Popper, hvis kritiske rasjonalisme danner grunnlaget for forskningen i mange vitenskaper, spesielt de nomotetiske naturvitenskapene.
Deskriptiv vitenskapsteori
Deskriptiv vitenskapsteori undersøker man hvordan vitenskapelige oppdagelser faktisk ble gjort, vil man oppdage at metodene som ble brukt ikke alltid er sammenfallende med den normative vitenskapsteoriens «anbefalinger».
Her står f.eks. Thomas Kuhns beskrivelser av paradigmeskifter sentralt.