Seria apologetyczna. Część 7. Zasady Racjonalności (ctd.)

Po rozważeniu stosowalności logiki klasycznej w poprzednim wpisie z tej serii, w tym wpisie kontynuuję temat Zasad Racjonalności. Mam nadzieję, że poniższe punkty okażą się dosyć oczywiste.

ZR #2. Bilans argumentów.

Gdy dedukcyjny argument jest niedostępny, powinniśmy rozważyć bilans argumentów za tezą oraz tych przeciwko niej.

Wróćmy na chwilę do zasad logiki klasycznej. Jeśli argument może być zredukowany do tych praw (omówiliśmy w poprzedniej części), to jest on niekorygowalny. Innymi słowy, jeśli argument jest dedukcyjny, wszelkie prawdopodobieństwo jego błędności jest całkowicie wyeliminowane. Jeśli słuchacz całkowicie zgadza się z założeniami takiego argumentu oraz z jego logiczną formą, żaden inny argument nie może obalić stwierdzonego za jego pomocą wniosku. Podawanie takich dodatkowych argumentów to rodzaj fałszywego tropu.

W praktyce jednak obserwujemy, że argumenty na rzecz danej tezy nie są niekorygowalne, lecz mają pewien skończony stopień pewności. Wynika to z faktu, że istnieją inne zasady racjonalności (patrz niżej), które, w przeciwieństwie do logiki, nie prowadzą wcale do pewnych konkluzji, a jedynie zwiększają szansę uzyskania prawdziwego wniosku.

Istnienie korygowalnych argumentów implikuje, że mogą istnieć dobre argumenty za tezą X, jak również – bez żadnej sprzeczności logicznej – dobre argumenty przeciwko niej. Argumenty za tezą zwiększają jej stopień pewności czy też jej prawdopodobieństwo (epistemiczne), zaś argumenty przeciwko tezie je zmniejszają. Z natury prawdopodobieństwa wynika, że często potrzebujemy rozważyć bilans argumentów.

Tak więc zakładam, co zapewne nie jest zbyt kontrowersyjną opinią, że argumenty na rzecz danej tezy mogą się „dodawać”, tym samym zwiększając pewność konkluzji (w sytuacji, gdy żaden z argumentów nie jest niekorygowalny).

Korygowalne argumenty mogą się „dodawać”, ponieważ mają one probabilistyczny charakter (nawet jeśli dany argument jest dedukcyjny, może bazować na przesłankach, co do których nie jesteśmy pewni). Z tego samego powodu argumenty mogą się „odejmować”. Często w codziennym życiu, zwłaszcza kiedy rozważamy alternatywne działania, które możemy podjąć, myślimy o różnych powodach przemawiających za danym działaniem oraz przeciwko niemu, starając się przypisać każdej racji właściwą wagę i dokonać ostatecznego bilansu. Ostatecznie więc, zasada  bilansu argumentów wydaje się być uniwersalnie akceptowana.

ZR #3. Zasada indukcji.

Jeśli w takich a takich warunkach określony rezultat występował z większym prawdopodobieństwem, jest to dobrym powodem by sądzić, że będzie występował z większym prawdopodobieństwem również w przyszłości.

Zasada indukcji jest intuicyjnie przyjmowana przez praktycznie każdego. I chociaż nie może być ona udowodniona za pomocą praw logiki klasycznej, to ciężko byłoby znaleźć zdrową na umyśle osobę, która nie stosuje jej w codziennym życiu. Uważamy na przykład, że po każdej nocy najprawdopodobniej nastąpi dzień (w dobrze określonym czasie) albowiem tak było zawsze, odkąd pamiętamy. Albo: zazwyczaj, gdy jesteśmy głodni, chcemy coś zjeść, ponieważ pamiętamy, że jedzenie było w przeszłości skutecznym sposobem pozbycia się głodu.

Chciałbym podkreślić, że nie jestem w stanie udowodnić zasady indukcji w sposób, który unika argumentu kołowego, i nie znam żadnej osoby, która potrafiłaby to uczynić. Nawet dysponując kompletnymi danymi z przeszłości nie będę mógł wykazać, że po następnej nocy nastąpi dzień. Mogę jedynie powiedzieć, że indukcja jest bardzo intuicyjna i uniwersalnie akceptowana.

Jednym z rodzajów (lub zastosowań) zasady indukcji jest rozumowanie przez analogię. Jeśli warunki A doprowadziły do rezultatu R (lub występowały razem z R) w znanych nam okolicznościach, oraz warunki A’ są podobne (analogiczne) do warunków A, zaś R’ jest analogiczne do R, wtedy jest to powodem do przypuszczenia, że warunki A’ doprowadzą do R’ (lub wystąpią razem z R’).

Oczywiście stosowanie zasady indukcji wymaga ostrożności. Po pierwsze, jest to jedynie probabilistyczna zasada, która nie daje absolutnego dowodu. Oprócz tego, przy rozumowaniu przez analogię musimy zbadać, czy nie występują ważne różnice między sytuacjami, które rozważamy.

ZR #4. Twierdzenie Bayesa.

Oznaczenia:

  • P(H|T) – prawdopodobieństwo hipotezy H przy ewidencji T,
  • P(H|E&T) – prawdopodobieństwo hipotezy H przy ewidencji E oraz T,
  • P(E|H&T) – prawdopodobieństwo obserwacji E przy hipotezie H oraz ewidencji T,
  • P(E|T) – prawdopodobieństwo obserwacji E przy ewidencji T.

Twierdzenie Bayesa:

P(H|E&T) =   P(E|H&T) · P(H|T) / P(E|T).

To twierdzenie można udowodnić metodą dedukcyjną. Występujące w nim prawdopodobieństwa interpretuję jako epistemiczne, tzn. opisujące stopień pewności.

Z twierdzenia Bayesa wynika, że obserwacja, która jest bardziej prawdopodobna przy hipotezie H niż przy jej negacji przemawia na rzecz prawdziwości H.

ZR #5. Brzytwa Ockhama.

Hipotezy, które są mniej skomplikowane, mają większe prawdopodobieństwo a priori. Innymi słowy, prostsze hipotezy powinny być preferowane.

Poprzez prostszą hipotezę rozumiem taką, która korzysta z mniejszej liczby założeń ad hoc, tzn. jest mniej skomplikowana w sensie formalnym, nie zaś taką, którą łatwiej jest zrozumieć. Na przykład teoria względności Einsteina, chociaż trudniejsza do zrozumienia, jest prostsza niż teoria grawitacji Newtona, gdyż ta druga postuluje istnienie sił grawitacyjnych, dwóch rodzajów mas (grawitacyjnej i bezwładnej), etc.

Przytoczona forma brzytwy Ockhama jest ogólniejsza niż jej najbardziej popularna treść, według której preferowana powinna być hipoteza, która postuluje mniejszą liczbę bytów, aby wyjaśnić dane zjawisko.

Ktoś mógłby powiedzieć, że używamy brzytwy Ockhama tylko dlatego, że wolimy wyjaśniać rzeczy w prosty sposób, a nie dlatego, że one naprawdę mają proste wyjaśnienia. Uważam jednak, że brzytwa Ockhama nie jest jedynie pragmatyczna. Interpretowanie jej w taki sposób przeczy naszemu codziennemu doświadczeniu (naprawdę wierzymy, że wśród wielu adekwatnych wyjaśnień obserwowanych przez nas zjawisk, te najprostsze są prawdziwe – na przykład najprostszym wyjaśnieniem śmierci mężczyzny znalezionego z siekierą w głowie jest morderstwo, nie zaś wpływ nieobserwowalnych dotąd istot pozaziemskich) i przeczy historii nauki (wiele teorii, które zostały zaproponowane przez swych twórców ze względu na swoją prostotę, okazywało się potem dobrze wyjaśniać nowe zjawiska, na przykład teoria względności Einsteina). Jeśli używamy brzytwy Ockhama tylko pragmatycznie, ciężko wyjaśnić, czemu teorie wybrane z jej pomocą często odnoszą sukces dla nowych, nieobserwowanych dotąd danych.

Decyzja, której teorii powinniśmy przypisać większe prawdopodobieństwo a priori, jest często niełatwa, a odpowiedź na to pytanie wkracza w debaty z zakresu filozofii nauki. W przyszłości będę się starał uzasadnić, że chrześcijańskiemu teizmowi powinniśmy przypisać względnie spore (przepraszam za brak precyzji) prawdopodobieństwo a priori.

ZR #6. Równorzędność wykluczających się tez.

Gdy ktoś wysuwa tezę X, to niezależnie od natury tej tezy może i powinien zostać zapytany o argumenty na rzecz tej tezy. Nie istnieją tezy, które można uznać za „domyślnie prawdziwe” – na tym polega równoważność tez.

Oczywiście jeśli teza X jest prostsza niż jej negacja, jest to pewnym argumentem, w myśl brzytwy Ockhama, za tezą X. Chodzi mi jedynie o to, że teza nie może zostać uznana za domyślnie prawdziwą bez podawania zupełnie żadnych argumentów.

A więc gdy ktoś mówi „Bóg nie istnieje; nie mam na to żadnych argumentów, ale jeśli istnieje, udowodnij, że istnieje!”, jest to błędem. Natomiast słowa „Bóg nie istnieje; hipoteza nieistnienia Boga jest mniej skomplikowana od hipotezy jego istnienia, więc powinniśmy uznać, że nie istnieje” mają odrobinę więcej sensu.

ZR #8. Percepcja i intuicja(?).

Muszę przyznać, że wahałem się, czy uwzględnić ten punkt. Wzbudzi on prawdopodobnie najwięcej kontrowersji. Jestem jednak zdania, że trudno jest uniknąć afirmacji tego punktu w praktycznym życiu, choć może nie tak trudno jak w przypadku logiki klasycznej czy zasady indukcji.

Rozważmy zwykłą sytuację z życia codziennego: Ania widzi szklankę wody na stole. Na gruncie swojej percepcji wzrokowej Ania wierzy, że istnieje stół i istnieje szklanka wody. To przekonanie jest dosyć bezrefleksyjne i powstaje automatycznie. I choć Ania nie będzie w stanie udowodnić tego przekonania, uważam je za racjonalne dopóty, dopóki nie pojawi się „dostatecznie silny” argument przeciwko niemu (np. dowody na hipotezę symulacji). Do tej pory jednak przekonanie Ani jest zgodne z powyższą zasadą racjonalności. Tak więc:

Uważam, że powinniśmy ufać naszym zmysłom w sytuacji, gdy nie mamy powodów do wątpliwości w to, co „pokazują”.

Uważam, że powinniśmy wierzyć w to, że dana rzecz jest taka, jaka nam się wydaje, że jest (poprzez percepcję i intuicję) w sytuacji, gdy nie mamy powodów do wątpliwości w to, że tak jest.

Powyższych tez, podobnie jak zasady indukcji, nie potrafię udowodnić – mogę jedynie zwrócić uwagę na to, że te dwie zasady są szeroko stosowane w praktyce. W naszym codziennym życiu postępujemy tak, jak podpowiada nam nasza percepcja (i do pewnego stopnia intuicja), co oznacza, że naprawdę wierzymy w to, co podpowiada nam nasza percepcja (i intuicja).

Należy nadmienić, że zasada percepcji i intuicji ma zastosowanie do prostych/podstawowych faktów (jak np. istnienie obiektów, które widzimy), i poważnym błędem byłoby stosowanie jej do hipotez skomplikowanych/wyższego rzędu (jak np. zmiana klimatu). Jest tak dlatego, że 1) nie istnieje zmysł pozwalający bezpośrednio zobaczyć prawdę lub fałsz złożonych tez (nie rozumiem zatem sformułowań typu „czuję, że to prawda”, gdyż o ile zwykły człowiek posiada palce, nos, uszy, oczy, etc., to nie posiada on detektora prawdy, więc prawdy nie można „poczuć”), 2) w przypadku hipotez wyższego rzędu zazwyczaj występuje wiele argumentów z innych kategorii (indukcyjnych etc.), których siła przyćmiewa bezpośrednią percepcję.

 

 

 

Reklamy

Feynman Diagrams Do Not Represent Fundamental Interactions

Nearly anyone who has read a good book on theoretical physics written for a general audience came across Feynman diagrams. In this blog post I will attempt to argue for a particular interpretation of these objects, starting with a brief introduction for those who aren’t familiar with them. I will try to explain everything in simple terms, although some knowledge of mathematics and physics will be, of course, beneficial.

If you are familiar with Feynman diagrams, you can skip to „The main thesis”.

Feynman diagrams – introduction

We will be concerned with particle interactions. Particle interactions are simple: we have the „initial” state, which is a certain configuration of elementary particles, such as electrons, photons (quanta of light), Higgs bosons, etc. These particles then „interact”: they may change their configuration, some of them may be destroyed and new ones created. In the „final” state we could observe an entirely different, almost unrecognizable, set of particles.

According to quantum mechanics, we usually cannot predict what are we going to get at the end nor can we know what happenned „in between”: we can only perform calculations describing the probabilities of certain end-states, and we can measure experimentally which end-state was, in fact, reached. This is where Feynman diagrams come into play: they show what kind of interactions are possible – see Fig. 1. below.

 

Fdiagram

Fig. 1. Feynman diagram for an interaction between an electron and anti-electron, with an exchange of a photon; source

In order to perform the calculations of probabilities, we employ the principles of quantum field theory, which often constitutes an integral part of a theoretical physics course. Shortly speaking, we must start from a field in spacetime, which is defined by its mathematical properties. These mathematical properties enable us (at least in theory) to describe which end-states will be achieved from which initial states with what probabilities. Feynman diagrams constitute a way to represent terms in mathematical expressions that arise in the course of these calculations.

More precisely, Feynman diagrams are a way of representing certain elements of an approximation to the path integral – one of the most important mathematical objects a particle physicist works with. For the sake of completeness, I will write the path integral here, although it is not necessary to understand what the expression means:

1

It has been claimed that Feynman diagrams are something more than what I said above. It has been claimed that they represent the way interactions really take place.

The main thesis

The tone of the previous paragraph suggests that I do not agree with these claims. Indeed: in the remaining part of this entry, I will give my reasons for believing the following proposition:[1]

Feynman diagrams do not represent the way particle interactions „really” take place. Instead, each diagram is merely a pictorial representation of a term in a certain mathematical expression. Thus, internal lines of a Feynman diagram cannot be interpreted as particles.

I believe I have several good arguments for the above claim. Let me present them one by one.

1. The proper origin and motivation of a Feynman diagram is a graphical representation of mathematical expressions.

In modern particle physics, particles are not seen as fundamental objects that are put into the theory from the start. Theoretical models are instead defined in the language of fields, while the relationship between particles and fields is like the one between wrinkles and a carpet. More precisely, individual particles may be seen as the simplest excitations of a more fundamental object – the field.

The view according to which Feynman diagrams display the reality, on the other hand, would imply that particles are fundamental. This contradicts the spirit of modern physics, as explained above. In modern quantum field theory, Feynman diagrams arise from the language of fields, and they are used primarily to simplify certain calculations. Any interpretation in terms of particles is, at best, secondary.

2. According to standard interpretations of quantum mechanics, the interaction did not have to follow any particular Feynman diagram.

The laws of quantum mechanics imply that if a process cannot be observed, there is no „actual path” the system took, during this process, from its initial to the final state. For example, the scattering of an electron and an anti-electron could be described by a sum of two Feynman diagrams, one of which suggests a photon was exchanged, and the other – that the particles annihilated to create a photon which then decayed into electron-antielectron pair. But it would be a mistake to assume that the electrons must have chosen only one of these options; instead, the actual path was something like a superposition of both diagrams. Since the interaction does not take place according to any particular Feynman diagram, it is hard to understand how these Feynman diagrams could be taken as representations of the way interactions actually take place.

3. The infinite series of Feynman diagrams usually does not converge (ie. the diagrams cannot be summed up).

If each Feynman diagram represented physical reality, then (assuming the difficulty from point 2 is brushed away) in order to find the total probability of two particles interacting in a certain way, one could consider the contributions from all the possible physical trajectories (each trajectory represented by a Feynman diagram) and simply add them up. But more often than not, it simply cannot be done. The reason for it is the subtle difference between a Taylor series and an asymptotic series.

A Taylor series is an infinite series converging on the value of a function everywhere in a certain region (let’s say: near zero). Intuitively: we can approximate a function at a given point by a finite sum of simple terms (x^n), and the more terms we take, the better the approximation is going to be.

An asymptotic series is a symbolic expression which, in a certain sense, also approximates a function. Let’s say we approximate f(x) near x=0, by an expression which is increasingly more accurate as x → 0. Suppose the error in this approximation is of order x. Then we can produce a more accurate approximation by introducing a term identical to this linear component, thus cancelling it out. The new approximation’s error as x → 0 might be now of the order x² (which is smaller than x for sufficiently small x). I think you can see where this goes: we eventually get ourselves talking about an infinite series of approximations, each one working better than the previous one. Nonetheless, at a fixed x > 0, such approximations do not necessarily converge to f(x)!

Feynman diagrams are, formally, terms of some asymptotic series, not Taylor series. Thus we often cannot find the value of physical observable by summing up all the (infinitely many) Feynman diagrams, because the asymptotic series these diagrams represent does not converge to a limit. But if they did represent what really takes place, then surely the contributions from all the different, manifestly real processes would give a meaningful answer. Thus we have achieved a contradiction, implying that our assumption – that each of the processes described by Feynman diagrams is „real” – was incorrect.

4. Feynman diagrams also occur in the context of solid state physics, where they obviously cannot literally represent particle interactions.

In particle physics, we work in a spacetime which usually has 4 dimensions (3 for space and 1 for time). Imagine for a moment that we eliminate one spatial dimension, so we now have 2+1 dimensions. Now, some of you may be familiar with the idea that time is akin to imaginary space, as in the Hartle-Hawking model. If we are dealing with a quantum theory, we can take the expression for the path integral, formally change time into space, and obtain a theory living in 3 space dimensions, with no time! It is described by what is called a partition function:

2

This theory could model a 3-dimensional solid body (for example a magnetized slab of iron) and is mathematically very similar to the previous one (although physically and metaphysically different, since time is not space). Now comes the crucial point: since the partition function has a form resembling the path integral, this means that mathematical formalism is essentially the same, and we can still work with Feynman diagrams! Yet it should be obvious that in the context of solid state physics there is no such thing as „particles that mediate interactions”, and hence Feynman diagrams cannot be given the realist interpretation. Since Feynman diagrams do not have the realist interpretation in this context, why would they have the realist meaning in the context of particle physics? I think the simplest hypothesis is that Feynman diagrams have the same status – the antirealist one – in both theories.

5. The existence of a particle depends on the reference frame.

If an inertial observer claims to detect a particle, then all inertial observers will agree. Otherwise it would be possible to detect inertial motion in space, contradicting Special Relativity.

But it is well known in theoretical physics that an accelerating observer will see a picture that is altogether different, detecting particles that a stationary observer would say do not exist at all. Unruh effect describes this kind of situation: an observer who accelerates uniformly is going to see a thermal bath of particles with certain temperature.

This means that the existence of particles is not absolute: what one observer would see as a particle, another would see as an absence of it. While all inertial observers will agree that they observe the vacuum state, in General Relativity we learn that defining the vacuum state (of a field) is an ambigous procedure when accelerations and curvature play any role. Since we cannot uniquely define what we mean by a state with zero particles, the surprising conclusion is that we cannot give any absolute definition of a particle! (That is, the definition of what state of a field constitutes a particle and what state doesn’t cannot be absolute. As a side note, my understanding is that this is the deep reason behind the Hawking radiation; a stationary observer detects particles emanating from the black hole even though an inertial, infalling observer sees the vacuum.)

Since we cannot give any unambiguous definition of a particle, I think interpreting Feynman diagrams in realist terms would be a stretch; but I will leave the details of this argument to the reader.

In conclusion, I think Feynman diagrams do not represent fundamental interactions. It is just a mathematical tool. Perhaps there are arguments against this thesis, and there is a possibility that I will discuss these on another occasion – for now, a declaration that I haven’t found any convincing one must suffice. In a future post I might also discuss the implications of the antirealist interpretation on other areas of the philosophy of physics, for example on the claim (put forward by Lawrence Krauss and others) that the quantum vacuum is the true nothingness.

 

[1] This might be called the antirealist interpretation of Feynman diagrams.

Further reading:

See arXiv/1711.03790.

Serija apologetična čęsť 4: Blųdy poznavče i blųdy logične

Kråtky vvod v azbukų: Sej tekst jest napisany v bogatejšej ortografiji (Naučny
Međuslovjansky Pravopis).
Bukva „đ” odpovědaje „dž”.
Bukvy „ų” i „ę” to veliky i maly jus [nosove].
Bukva „å” to bukva posrěd „a” i „o”.
Bukvy „ń”, „ś” i „ć” sųt mękke.
Bukva „ò” to jer tvŕdy.
Rešta gramatiki jest prědstavjěna na http://interslavic-language.org/doc/ns-pregled.pdf
Alternativne varianty slov (bliznoznačne slova) sųt podane v kvadratnyh zatvorkah: [].


V ovom postu definiujų i jasno råzličajų pojęťja blųda poznavčogo i blųda logičnogo. Ubo kategorizacija i obgovorjeńje vslědnyh [oprěděljenyh] form ovyh blųdov byly už prědmetom mnogih analiz i sųt dostųpne v Internete, svojų diskusijų ostavjų na najbolje generaľnom uråveńju.

Blųd poznavči (prědsųďje poznavče, tendencijnosť, ang. bias ili cognitive bias) jest to sistematičny vzor poględańja na reaľnosť [stvårnosť], iže odběgaje od metody racjonalnoj.

Blųd logičny (ang. logical fallacy) jest to blųdna [ošibkova, hybna, pogrěšna] metoda råzumovańja [argumentaciji]

Blųd poznavči jest svojstvom [vlastnosťojų] osoby i jej uma [pl, cz, sk: (u)mysl].

Blųd logičny jest svojstvom argumenta. Ne tyče sę on osoby, no jedino sòdŕžańja samogo argumenta, nezaležno [nezavisno] od jego slučajnyh vlastnostji ako izhod pohođeńja, historija jego stvårjeńja ili vlastnosti osoby formulovajųćej jego.

Osoba obtęžena blųdom poznavčim imaje pozaracjonalnojų (neskorelovanų s pravdojų s pomoćjų metody racjonalnoj) sklonnosť do ocěny propoziciji.

Argument obtęženy blųdom logičnom nazyvajemo blųdnym argumentom. V ovakom slučaju ne dokazyvaje [ne dovodi] on togo, čto iměl za zadańje dokazati ili dokazyvaje togo v prěslaboj měrě.

Blųd poznavči jest tom, čto iztvorjaje [dělaje] lihe argumenty (ang. a cognitive bias is what makes wrong arguments).

Blųd logičny jest tom svojstvom argumenta, ktore navodi, že argument staje sę nepravy. (ang. a fallacy is what makes arguments wrong).

Blųdy poznavče sųt prědmetom råziskyvańj [badańj, obslědovańj] psihologiji i pokròvnyh společnyh nauk, a takože neurologiji.

Blųdy logične sųt prědmetom råziskyvańj filozofiji i logiki.

Hoćų ponovno po izråzniti, že sila argumenta jest funkcjoj jedino jego sòdŕžańja i jego odnošeńja k faktom. Pravdivy argument ne staje sę blųdny prěz někakě nekoristne fakty o osobě formulovajųćej jego (ad hominem) ili poprěk historiji jego stvårjeńja (blųd genetičny). Čto bolje, pravdivy argument ne staje sę blųdny, kògda toj osobě byly objavěne blųdy poznavče. Inymi slovami, obråčeńje sę k blųdu poznavčemu ne oprovŕgnovųje [zavala] argumenta (appeal to bias).

Jednako, kògda naša věda ili srědstva [iznahodnosti] ne dozvaljajųt nam na godnų ocenų argumenta, tògda sgodno s pravilom ekspertyzy možemo oprěti sę na stanovišču osob imajųćih faktičny avtoritet v danoj oblasti [danym prědmetu]. Jest tako tomu, že – uživajųći metafory argumenta ako drågi k cělju – mněńje eksperta može, v prigodnyh [dobryh] uslovjah [okoľnostjah], služiti ako argument za věrodostojnosťjų drågy izbudovanoj prěz togo eksperta[1] daže [navet, čak] v situaciji nkògda ne imajemy srědstv dozvaljajųćih nam na ocenų drågy v iny sposob. Kvestija dověrjeńja ekspertom zasluživaje na slegka bolje podrobne råzvažańje [råzględańje], zato v bųdųćnosti posvěćjų tomu odděľny vpis.


Prěvod: Tymoteusz Miara

[1] To znači na korisť pravilnosti argumenta směrjenogo na pravdų ako cělju.

Seria apologetyczna. Część 6. Zasady racjonalności.

W poprzednim wpisie podkreśliłem konieczność ustalenia standardów racjonalności, którymi powinniśmy się kierować. Doszedłem również do wniosku, że każdy system przekonań musi być oparty na niedowodliwych stwierdzeniach lub musi zawierać – jeśli mogę użyć tak mocnego stwierdzenia – błędne koło.

W tym poście zacznę opisywać przyjmowane przeze mnie Zasady Racjonalności (ZR), które pozwalają na uzasadnianie przekonań. Nie będzie teraz istotne, czy ZR są niedowodliwymi fundamentami, czy może jednak są uzasadnione przez coś innego; jest to kwestia, której nie będę rozstrzygał. Jedynym pytaniem, które nas obecnie interesuje, jest pytanie o ich treść.

Motywacją do przyjęcia przytoczonych ZR jest przede wszystkim nadzieja, że każda osoba, podjąwszy właściwą refleksję nad swoimi własnymi metodami rozumowania, uświadomi sobie, że są one wystarczająco podobne do poniższych zasad. Innymi słowy, przedstawione ZR wydają się dosyć uniwersalne i działające w praktyce, a ich używanie w codziennym życiu jest niemal nieuniknione. (Ktoś może uznać ten paragraf jako pewnego rodzaju argument za poprawnością ZR – nie jest to jednak argument w pełni zgodny z tymi właśnie ZR. Z tego względu użyłem słabszego terminu motywacja.)

ZR #1. Prawa logiki, dedukcja

Bodajże najważniejszą ZR jest logika klasyczna. Wyczerpujący wstęp do zasad logiki, rodzajów argumentów i popularnych błędów logicznych znacznie wykracza poza ramy tej serii, a ponadto można go łatwo znaleźć w podręcznikach filozofii, a także w podstawowych kursach na kierunkach matematycznych i prawniczych.

Motywacja

Prawa logiki przyjmuję jako ZR, ponieważ jestem zdania, że niemożliwe jest ich odrzucenie. Rozważmy osobę, która twierdzi: „Nie uznaję zasady niesprzeczności. Dana teza oraz jej negacja mogą być jednocześnie prawdziwe.” Problem polega na tym, że taka osoba nie zdaje sobie sprawy ze znaczenia słów, których używa. Poprawne zrozumienie konceptu tezy, negacji oraz prawdy prowadzi do nieuniknionego przekonania, że teza i jej negacja się wzajemnie wykluczają. Kiedy bowiem mówimy, że negacja tezy P jest prawdziwa, mamy na myśli – jeśli używamy słów zgodnie z ich ustalonym znaczeniem – nic innego jak to, że P jest fałszywe, że P nie jest częścią rzeczywistości, a więc odrzucamy P. Dlatego właśnie stwierdziłem, że cytowana osoba nie rozumie znaczenia używanych przez siebie słów. Wypowiadając powyższe sformułowanie, wypowiedziała zdanie niemożliwe – zdanie Moore’a. Stwierdzamy ponadto, że przedstawione sformułowanie jest ciągiem słów pozbawionym znaczenia i sensu (patrz spójność logiczna).

Ta analiza może zostać rozszerzona na całą logikę. Załóżmy, że według praw logiki klasycznej z założeń A, B i C wynika X, to znaczy jeśli A, B i C są prawdziwe, wtedy również X musi być. Zapiszmy to jako ABC => X. Co takiego jest w ABC, że X jest uważane za automatycznie prawdziwe? Nie możemy odwołać się do świata zewnętrznego – do jakiegoś faktu innego niż ABC. Logika klasyczna uważa więc prawdziwość X za wynikającą z samej struktury ABC; ponieważ nie odwołujemy się do żadnej nowej tezy D, teza X jest niejako zawarta wewnątrz ABC, i nie mówi absolutnie nic nowego; nie niesie żadnej nowej informacji. A więc można powiedzieć, że teza X była od początku częścią ABC. Stworzyliśmy argument ABC => X tylko dlatego, że ABC oraz ABC+X są opisane innymi słowami, i potrzebowaliśmy refleksji, żeby uświadomić sobie ich równoważność. Jeśli ktoś rozumie znaczenia słów, to zawsze zda sobie sprawę, że nie powiedzieliśmy nic nowego ponad to, co już było częścią ABC. I na odwrót: jeśli ktoś odrzuca dedukcyjny argument ABC => X z powodu zwątpienia w prawa logiki, najwyraźniej nie rozumie znaczenia używanych słów. Według Wittgensteina1,

6.12 … If propositions are to yield a tautology when they are combined in a certain way, they must have certain structural properties. So their yielding a tautology when combined in this way shows that they possess these structural properties.

6.121 The sentences of logic demonstrate the logical properties of propositions by combining them so as to form sentences that say nothing.

Zatem dedukcyjne argumenty mogą zostać nazwane nonsensem2, ponieważ nie wnoszą nic nowego ponad to, co już zostało powiedziane.

Istnieje wiele innych argumentów przeciwko osobie odrzucającej prawa logiki. Można na przykład zaobserwować, że odrzucenie zasad logiki jest autodestrukcyjne (i niemożliwe do pojęcia umysłem), ponieważ ze stwierdzenia „należy odrzucić zasady logiki” wynika stwierdzenie „należy przyjąć zasady logiki” (wynika poprzez błędną implikację – ta błędna implikacja jest jednak poprawna według pierwszej tezy). Można również powiedzieć, że nikt nie odrzuca klasycznej logiki w codziennym życiu. Nawet jej najbardziej zatwardziały przeciwnik wierzy, że podczas przechodzenia przez ulicę obowiązuje zasada: albo on, albo autobus!

Limity stosowalności logiki?

Niektórzy twierdzą, że nie odrzucają logiki jako takiej, lecz odrzucają ją w pewnych kontekstach, wskazując na limity jej stosowalności. Jednak powyższe obserwacje dotyczące natury logiki działają również przeciwko tego typu tezom. Ponadto argument na rzecz tezy o niestosowalności logiki w kontekście S, jeśli byłby dobry, z konieczności musiałby 1) dotyczyć kontekstu S i 2) korzystać z zasad logiki, a więc paradoksalnie prowadziłby do afirmacji tychże w dyskutowanych okolicznościach. Wszystkie takie argumenty wydają mi się jednak wyjątkowo słabe.

Jako przykład rozważmy tezę mówiącą, że logiki nie można stosować w teologii. Obrońcy tej tezy przytaczają nadzwyczaj osobliwe argumenty. Jednym z nich jest nieskończoność Boga (cokolwiek by to miało znaczyć). A przecież w matematyce studiuje się liczby i przestrzenie nieskończone, używając przy tym zasad logiki klasycznej! Tak więc nieskończoność badanego obiektu nie jest powodem do odrzucenia praw logiki. Inną przesłanką miałaby być mądrość Boga – jest On tak mądry, że pozostaje dla nas niepojęty. Jednak czym innym jest stwierdzenie, że nie jesteśmy w stanie osiągnąć pełni wiedzy na temat Boga i Jego planów (limit wiedzy), a czym innym teza, że przy propozycjach dotyczących Boga obowiązują inne prawa rachunku zdań. Według mojej wiedzy, żadna cecha Boga nie jest przesłanką ku tej drugiej tezie. Warto też zauważyć, że z sukcesem stosujemy logikę do rzeczy większych, starszych i bardziej złożonych niż my sami (np. w kosmologii i astrofizyce).

Widzimy więc, że osoby odrzucające prawa logiki klasycznej są w błędzie, lub, bardziej precyzyjnie, nie rozumieją znaczenia używanych przez siebie słów. Dlatego nie da się odrzucić praw logiki klasycznej.

O czym będzie następny wpis?

W następnym wpisie będę kontynuował temat Zasad Racjonalności.


1 Ludwig Wittgenstein, Tractatus Logico-Philosophicus

2 Słowo nonsens jest tutaj oraz przez Wittgensteina użyte w niecodziennym, pozytywnym znaczeniu.

 

Fine-tuning and the probability distribution on the space of physical constants

Introduction

The motivation and the starting point for the following post is the argument from the fine-tuning to the existence of God. Fine-tuning can be described as the fact that some physical constants (and initial conditions) lie within a relatively small range that allows for the development of any organized life.1 Many have argued that such a coincidence is a priori extremely improbable, proposing the multiverse theory as a solution; others employed the hypothesis of a cosmic designer.

The inference from the fact of fine-tuning to low a priori probability of it has been challenged on the grounds that there is no obvious probability distribution on the space of physical constants. I have discussed this problem on some occasions with my friend Tymoteusz Miara; the problem was also raised during my talk at Apotheosis Society on 11th May 2018. I think that it is a fair objection, at least on its face.

My usual response was to argue that although we cannot justify any concrete probability distribution, we can at least roughly estimate the order of magnitude of the probability of fine-tuning by comparing the life-permitting range with the value of the constant; or with the range of values consistent with the theory. This approach takes for granted that the probability distribution is „smooth enough”, which enables us to deduce the order of magnitude of the probability of fine-tuning. Any sharp peak within the life-permitting range would be so unnatural, given the structure of the theory, that it would surely require the kind of explanation that the designer hypothesis offers. I think an honest man will agree that postulating sharp peaks in the probability distibution amounts to sweeping the problem under the rug.

But I think we can do better than this. First I will sketch my own argument, and then I will try to explain the argument from an article in the European Journal for Philosophy of Science2, which is somewhat similar.

Probability distribution is necessary for measurements

Whenever a physicist puts forward a theory, it might contain some parameters that aren’t there from the start, but have to be measured experimentally. Consider Newton’s theory of gravity. According to Newton, two massive bodies (under certain conditions) will attract each other with a „force” equal to F = G*Mm/r^2. The constant G was not predicted by Newton – it had to be measured experimentally. (There is really no way to guess the value of G without looking at the world.) So suppose the necessary experiment was performed and the experimenters’ observations match the predictions of Newton’s theory with G = 6.7×10^-11 SI units. Should we then conclude that Newton’s theory is true and that G = 6.7×10^-11 SI units?

It might seem obvious to you that the answer is yes. But (leaving aside the question of whether we should accept Newton’s theory as true) I claim that we are justified to accept the measured value of the G constant only if we can say something about its prior probability distribution.

The reason for this interesting conclusion is that scientific experiments are of a probabilistic nature – in the following sense. In the usual cases, we have all reasons to suppose that the experimenters did not make any serious mistakes and the conclusions were drawn correctly. Nevertheless, we do not have absolute certainty – the most that a particular measurement can accomplish is to increase the plausibility of a certain fact. (Here is a famous situation where it actually made more sense to suppose that experimenters had made a mistake.) Although sometimes this increase is so significant that a single experiment can settle the matter, it can never become an abolute proof of the purported fact. Since experiments, at best, merely increase the plausibility of a certain fact, the final plausibility will necessarily depend on the initial (prior) plausibility, according to Bayes’ theorem. (Even if two physicists attribute different prior probability to a certain theory, they often agree on the conclusions – this is because experimental evidence is sufficiently powerful.)

Since experiments have this probabilistic nature, our interpretation of the experiment that measured G will depend on our presuppositions about the probability distribution of G. For suppose, for example, that our prior probability distribution is heavily concentrated around G ~ 10^-5, while G ~ 6.7×10^-11 we assume to be extremely improbable a priori. After the experiment, then, we should conclude that the experimenters probably made a mistake – for any experiment, there exists a prior distribution which makes such an explanation much more plausible than the alternative! But this is clearly absurd. We see, therefore, that in order to perform meaningful measurements of the kind we are discussing, we have to assume some sort of „smooth” probability distribution on the space of physical constants.

The point of all this is that noone can escape the necessity of establishing some kind of probability distribution on the space of physical constants. Therefore, those who object to the fine-tuning argument on the grounds that there is no such probability distribution are shooting their own foot. This is also one of the conclusions of the article I mentioned at the beginning.

Probability distribution is necessary for a theory to be considered scientific

The author of this article goes even futher. He argues that a probability distribution over the space of constants is needed in order to assess the validity of the theory itself. Below is a summary of his argument (emphasis mine):

A physical theory, to be testable, must be sufficiently well-defined as to allow probabilities of data (likelihoods) to be calculated, at least in principle. Otherwise, the theory cannot tell us what data we should expect to observe, and so cannot connect with the physical universe. If the theory contains free parameters, then since the prior probability distribution of the free parameter is a necessary ingredient in calculating the likelihood of the data, the theory must justify a prior. In summary, a theory whose likelihoods are rendered undefined by untamed infinities simply fails to be testable. In essence, it fails to be a physical theory at all.2

Let me explain it in my own words. When someone puts forward a physical theory that predicts new data, the predictions are given, by necessity, in a probabilistic manner. (For example, the Higgs boson theory predicted that the LHC will be likely to observe a resonance near 120 GeV) Then the corresondence between exprimental values and predicted values constitutes experimental evidence for the theory (experiment being the epitome of „verification”), where the strength of the evidence depends on how much likelihood did the theory give to this particular data.

The point is, the theory cannot produce empirically accessible statements – statements about likelihoods of the data – if it is completely agnostic about the probability distribution of its undetermined constants. Note that these are the conditions for a viable, testable physical theory. We haven’t yet raised the matter of fine-tuning!

In conclusion, the article shows that, technically, any fundamental theory needs to specify a distribution on the space of its undetermined constants. This is usually not required in practice, because the details of this distribution do not affect the final assessment of experimental data as long as we are talking about an „honest”, reasonably smooth distribution. Therefore, if we want the science of physics to stand firm, we have to admit that it is justified to assume the existence of a particular („sufficiently smooth”) probability distribution, and in consequence, it is justified to make the inference from

The values of fundamental constants lie within a small range that allows for the development of any organized life.

to

Given pure chance, it is extremely improbable that the values of fundamental constants would lie within a small range that allows for the development of any organized life.


1 Above all, the Higgs coupling constant has this property – see the article below.

2 L. A. Barnes, Fine-tuning in the context of Bayesian theory testing, European Journal for Philosophy of Science, vol. 8 no. 2 (2018).

Serija apologetična čęsť 3: Doslědnosť logična

Kråtky vvod v azbukų: Sej tekst jest napisany v bogatejšej ortografiji (Naučny Međuslovjansky Pravopis).

Bukva „đ” odpovědaje „dž”.
Bukvy „ų” i „ę” to veliky i maly jus [nosove].
Bukva „å” to bukva posrěd „a” i „o”.
Bukvy „ń”, „ś” i „ć” to mękke „n”, „s”, „c”.
Rešta gramatiki jest prědstavjěna na http://interslavic-language.org/doc/ns-pregled.pdf

Alternativne varianty slov (bliznoznačne slova) sųt podane v kvadratnyh zatvorkah: [].

—————————————————-

Sej vpis prodolžajųći zadańje vvedeńja neobhodimyh definiciji, bazuje na pŕvyh dvoh glåvah knigi The Coherence of Theism Richarda Swinburne’a.

Rěčeńjem nazyvamo vśaky gramatično korektna [prava] serija slov1. Ne každa serija slov jest rěčeńjem.

Iz-srěd rěčeńj možemo odosobniti kategorijų stvŕdeńj. Rěčeńje staje sę stvŕdeńjem, kogda vse jego slova imajųt smysl, a takože možno smyslno domněvati, že to, čto rěče, jest pravdojų, ili že to, čto rěče jest falšem [ložjų]. (My věmo, čto rěčeńje govori, ibo jest ono gramatično korektne). Itak, stvŕdeńje jest probojų [pokušeńjem] opisańja kako jest.

Stvŕdeńje nazyvamo nedoslědnom, jestli domněvańje, že jest ono pravdive, ne imaje sovsěm [totalno] smysla odnositeljno značeńja [s obzirom na značeńje]. V protivnym slučaju, stvŕdeńje nazyvamo doslědnom: to jest, jestli možno hoť by teoretično domněvati [prědpolagati], že može byti ono pravdive. Stvŕdeńje „družba imaje 3 metry vysoty” jest nedoslědne: pomimo, že vse slova imajųt smysl i sųt råzložene sgodno s pravilami gramatiky, jest vpolno nevoobražajeme [nemyslime] i ne možlive, aby to rěčeńje bylo pravdive (ibo družba ne jest objektom [prědmětom] fizičnym). Stvŕdeńja doslědne sųt, inymi slovami, logično možlive, nedoslědne sųt logično nemožlive.

Stvŕdeńje nedoslědne bųdų takože nazyvati bezsmyslicejų, jestli bųdų hotěl izråzniti, že ne nese ono nikakogo smyslnogo sodŕžańja [obsah, zawartość, zmist]. O takovyh stvŕdeńjah možno zlostlivo pověděti, že daže [navet, čak] ne sųt one falšive, ibo ničego ne označajųt. Poniže podajų priklady stvŕdeńj, ktore sųt očevidno nedoslědne (bezsmyslne). Mogųt one iměti izključno krajno metaforičny smysl, ktorym jednakože sę ne zajmamo:

  • Ljubov skače k Luně.
  • Kvadratne kolo na povŕhnosti Euklidesovej imaje 3 dijagonaly.

Råzględańja z togo vpisa imajųt priměnjeńje [zastosovańje, aplikacjų] v råzpravě teologičnoj. Na priklad teza verifikacijonistična, podle ktoroj „jedino [toliko] rěčeńja empirično verifikovajeme imajųt smysl; rěčeńja neverifikovajeme sųt absurdne2, vodila byh k tvŕdeńju, že vse rěčeńja odnositelno Boga sųt bezsmyslne.

Poniže, trohų provokatorsko, podajų ine priklady rěčeńj3, ktore, jesm uběđen, sųt nedoslědne (dokaz [dovod] ostavjų čitatelju, ako zadańje trenirovne, hoť uvjěrjeno, ješče povråčų k prědmetu).

  • Bog jest bezkonečny, a v bezkonečnosti logično protivrěčne aspekty nakladajųt sę i sjedinjajųt sę.
  • Tri (3) v pojęťju Trojcy ne izstųpaje v smysle nomeričnym – tri v tom slučaju ne jest čislem.

Nadejam sę, že v tom momentu definicije klasifikujųće verbalne izrěkańja sųt už skompletovane. Povtorijmo je bistro:

Rěčeńje – gramatično korektna serija slov.

Stvŕdeńje – rěčeńje, ktorogo vse slova imajųt smysl i vozmožno mněti, že jest ono falšive ili pravdive.

Stvŕdeńje doslědne (logično možlive) – stvŕdeńje, o ktorym možno s smyslom domněvati, že moglo byh byti pravdive.

Prěvod: Tymoteusz Miara

Jest to definicija råzna od językoznavčej, podle ktoroj rěčeńje dolžno [musi] iměti predikat [prisųdok].

2 Ovų tezų, očevidno, uvažajų ako falšivų. Iz logičnym pozitivizmom råzpravjų sę inogdy.

3 Pŕve iz njih jest citatom někojego rosijskogo naučnika procytovanego prěz Fr. Michała Hellera v knigě „Bog i nauka”, Copernicus Center Press 2013 (s. 91). Vtore jest v kontrastu vozględom někojego menje izvěstnogo [znanogo] teologa iz V solěťja – ale jesm zabezpamętal [zabyl] ktorego i ne jesm v možnosti sejčas najdti toj informaciji.