§2.5. PROPENSIONALISMUL

            Fiecare din interpretările analizate până acum are avantajele și dezavantajele sale. Frecvențialismul este criticabil atât prin axioma limitei sale, cât și prin cea a hazardului; interpretarea frecvențială moderată (Kolmogorov, Hincin, Cramér) suferă de incoerență logică: pe de o parte, în teorie probabilitatea se referă la evenimente izolate iar interpretarea ei este ca o valoare ideală în jurul căreia oscilează frecvențele relative, așadar se interpretează ca o proprietate de masă, clasă. În plus, suportul logic este legea numerelor mari care este demonstrată în cazul evenimentelor independente, iar așa ceva este neverificabil: definiția independenței este dată prin probabilitate. Subiectivismul nu ne poate răspunde la întrebarea: dacă probabilitatea nu este obiectivă, de ce frecvențele se stabilizează cam în jurul aceleiași valori, indiferent de cel care face experiența ? Iar logicismului i se poate obiecta: dacă  este o relație logică între două evenimente, ar trebui să poată fi decelabilă logic, căutând conexiunea între evenimentele respective, fără apel la experiență (de exemplu P(Maria naște gemeni / Maria este româncă)) ceea ce este o utopie.

            Propensialismul ???? speră să înlăture toate aceste neajunsuri interpretând obiectivist probabilitatea ca referindu-se, primar la evenimente izolate, în contexte experimentale date (chance – set – up – CSU, [24], pag. 470). Cel care a lansat interpretarea propensionalistă este Popper (1957, 1959, 1967). Pentru el, probabilitatea fizică sau propensitatea se dovedește a fi o tendință de a se realiza un anume eveniment singular” ([  ], pg. 28). Propensitățile se manifestă prin frecvențe relative (pe care le explică, dar sunt altceva) într-un șir virtual de experimentări ale contextului dat. În [  ], pg. 38, este prezentată o mică modificare: „propensitățile sunt proprietăți ale unui aranjament experimental repetabil”.

            R. N. Giere își asumă sarcina apărării unui punct de vedere propensionalist extrem în „Objective single-case probabilities” (1971). Definiția propusă de autorul american este următoarea: „Dacă un CSU poate produce evenimentul E, atunci P(E) reprezintă tăria (strength) tendinței (propensity) lui de a produce evenimentul E” ([241], pg. 471).

            Deci un CSU are o tendință de a produce un eveniment E – printre alte evenimente posibile. Măsura acestei tendințe este . Seamănă cudefiniția marxist㠄măsură a posibilității” dacă înlocuim tendință cu „posibilitate” și „tărie” cu măsură. De exemplu, la aruncarea zarului, contextul experimental – CSU-ul – constă din mâna care îl aruncă, masa pe care cade și aerul care opune rezistență.

            Giere accentuează că pentru a înțelege ceea ce sunt probabilitățile fizice este esențială referirea la un caz unic, deși adesea în practică propoziția „ ” „ intenționează să exprime, de fapt, generalizarea: pentru orice manifestare (trial) a contextului experimental respectiv, propensitatea CSU-ului de a produce evenimentul E este egală cu r” ([24], pag. 471).

            Să vedem cum argumentează autorul definiția. Nu cumva se mișcă într-un cerc vicios înlocuind probabilitatea cu propensitatea și pretinzând apoi că a dat o definiție ?

            Mai întâi: „Propensitățile asociate cu manifestarea unui CSU nu sunt mai relative decât orice alte caracteristici fizice ca masa, greutatea specifică sau conductibilitatea electric㔠([24], pag.473) (Să ne amintim că în acest context și părerea lui Borel c㠄pentru un fizician probabilitatea ca un atom de radium să explodeze mâine este o constantă la fel ca densitatea cuprului sau densitatea atomică a aurului” ([4], pag. 50)).

            Așadar, se sugerează că probabilitatea fizică (a unui eveniment izolat !) trebuie să aibă același statut cu celelalte mărimi fizice. Dar celelalte mărimi fizice sunt măsurabile. Cum să măsori o propensitate ?

            Referitor la problema definiției, Giere răspunde: „La o primă vedere ar părea că interpretarea referitoare la un singur caz (single case interpretation) este vidă; în mare, ea înlocuiește cuvântul probabilitate cu cel de propensitate. Dar voi argumenta că nu este așa. În primul rând, deși nu neapărat necesar, un nou termen este de dorit și adecvat deoarece cuvântul probabilitate este folosit pentru a desemna o realizare fizică (sau un model fizic) a structurii abstracte. Dar propensitățile nu numai că sunt fizice, ele sunt și teoretice. Astfel, analogia între spațiile probabilizate abstracte și propensități este aceea între o structură abstractă a mecanicii particulelor și adevăratele mase, forțe care ar putea fi realizabile fizic. Analogia dintre propensități și forțe este revelatorie (illuminating). La fel cum în mecanică forța nu este reductibilă la concepte mai puțin teoretice ca masa sau accelerația, tot astfel aș pretinde ca propensitățile să nu fie reductibile la concepte mai puțin teoretice ca frecvențele”.

            Într-adevăr, analogia probabilitate – forță merită a fi luată în considerare. Dar forța este, măcar principial măsurabilă: fie prin accelerație, fie cu un dinamometru.  Cum  este cu propensitățile ?

            „O problemă centrală referitoare la relația între propensități și frecvențe este dacă nu cumva este posibil să deducem valorile unora din valorile celeilalte. Răspunsul, deja de așteptat, deoarece

propensitățile sunt teoretice, este negativ.”(pag. 477). „Este logic posibil ca  și  pentru orice n, deși, desigur propensitatea unui asemenea rezultat este 0”(pag.478). Ce concluzie să tragem din acest răspuns net ?

            „Din lipsa unei legături directe între propensități și frecvențe rezultă că existența propensităților este inconsistentă cu o metafizică Humeană. Pentru Hume existența obiectivă a unei legături cauzale universale constă nuami dintr-o legare de facto a trecutului, prezentului și viitorului. Extinzând această concepție la legile probabiliste, legătura probabilistă poate consta, pentru un Humean, într-o înșiruire de frecvențe relative de facto. Dar, cum nu este nici o legătură logică directă între propensități și frecvențe relative, nici chiar ,în limit㒠relația exprimată prin enunțuri propensionaliste nu poate fi o lege de probabilitate Humean㔠([24], pag. 478).

            S-ar părea deci că aceste propensități au caracteristic tocmai ce urăsc mai mult subiectiviștii: sunt ficțiuni metafizice neoperaționle. Nu este așa, consideră Giere: pur și simplu, ele sunt entități teoretice cu caracter non-Humean, adică nu sunt nemijlocit verificabile. De fapt nu sunt verificabile de loc. La ce pot ele servi ?

            Mai întâi că explică stabilizarea frecvențelor relative (dar este oare o explicație reală ? Nu cumva este ca și teoria flogisticului care explica arderea prin faptul că substanțele care ard posedă flogiston ?) În al doilea rând că furnizează o interpretare absolut naturală formalismului Kolmogorovian. În al treilea rând că, în ciuda caracterului lor non-Humean se pot face ipoteze asupra lor pe baza frecvențelor relative. Problema testărilor „nu se poate izola de celelalte probleme ale fundamentelor statisticii. Un răspuns la această întrebare presupune o analiză detaliată a inferenței statistice… Pur și simplu, eu cred că orice inferență legitimată științific asupra probabilităților fizice presupune adevărate alte ipoteze de bază tot de natură probabilistică”(pag. 479).

            Din păcate așa este. Dar ne putem consola cu gândul că nici în mecanica newtonian㠖 știința ca mai cristalin㠖 situația nu este mult diferită. „Orice încercare de a determina valoarea exactă a unei forțe necesită presupuneri (neverificabile n.n.) relativ la celelalte forțe care intră în joc: sau că ele nu sunt operative, sau că influența lor a fost luată în calcul. Așa că, dacă cineva este dispus să admită conceptul de forță ca fiind legitimat empiric nu li se poate respinge propensităților același drept pe motivul că ipotezele propensiale asumă adevărul altor ipoteze propensiale. De altfel empiriștii consecvenți au căutat adesea să alunge din știință conceptul de forț㔠(pag. 479).

            Confirmând ipoteza lui Good menționată în capitolul anterior conform căreia cei care admit existența unei probabilități obiective trebuie să fie indeterminiști, Giere spune „Dacă am ști că lumea este deterministă, orice discuție despre propensități ar deveni pur academică. Din fericire, avem destule motive să credem că determinismul nu se poate susține, cel puțin la nivel microscopic”(pag.475).

            Un argument concret este timpul de înjumătățire al unui nucleu de uraniu; acolo, consideră el „dacă funcția  descrie complet situația fizică a nucleului, atunci nu mai există nici un alt x astfel ca valoarea lui x să determine unic timpul de înjumătățire. Indeterminarea aceasta este însăși în natură, nu în conștiința noastr㔠(pag. 476). Așadar cazul tipic de propensități apare în mecanica cuantică, la nivel microscopic. În cazul aruncării unui zar nu este vorba de propensități veritabile, deoarece la această scară evenimentele sunt deterministe. „Dar nu trebuie uitat faptul că acest lucru (aplicarea probabilităților la zaruri nn.) este numai un mod comod de a vorbi (convenient way of talking) și că probabilitățile fizice implicate nu există în realitate (reallz do not exist). A uita aceasta este a face o invitație la confuzie conceptual㔠(pag. 481).

            Articolul comentat a fost prezentat la Congresul al patrulea de logică, metodologie și filosofie a științei, București 1971. La același congres a vorbit și un alt reprezentant de frunte al propensialismului, I. Hacking (Cambridge, Anglia). El se declară de acord în mare cu punctul de vedere al lui Giere, cu excepția faptului (care mie mi se pare evident) că este o naivitate să pretindem că cel mai nimerit context pentru a pricepe probabilitățile fizice ar fi mecanica cuantică, „căci dacă ar fi așa, am fi pe un drum greșit, fiind un fapt notoriu că fizicienii și filosofii mecanicii cuantice se contrazic aproape în fiecare problemă legată de natura probabilităților”([23], pag.486). „Pentru un teoretician al propensialismului faptul de a-și baza argumentarea pe teoria cuantică este analog cu acela de a-și păstra un joker dubios trimițând toți așii în mâinile probabilităților personale și ale interșanjabilității”(idem). Deși de Finetti a reușit „singura operă de reducționism filosofic în afara matematicii pure: toate raționamentele pe care le voi exprima în termeni de propensități se pot reduce, via analiza sa la probabilități personale și exșanjabilitate. Nimic din ce voi prezenta în această notă nu este incompatibil cu această reducere”, totuși „există motive mai adânci, de ordin filosofic pentru a nu merge alături de de Finetti, care nu au nimic de a face cu probabilitățile. Mă gândesc la faptul că nu ne putem referi la structura științei altfel decât în termeni realiști. Cred că nu putem specula asupra faptului dacă camcerul este contagios fără a admite propensități ca ceea de contagiune virală în ontologia noastr㔠([23], pag. 486).

            În privința statutului ontologic al probabilității, Hacking este dualist (propensionalist moderat): admite existența atât a unei probabilități obiective (propensity) văzută ca un mecansim de a produce frecvențe stabile la serii lungi de probe (stable long-run frequency), cât și a unei probabilități subiective, manifestată prin grade de încredere. Statistica are nevoie de amândouă. Viziunea dualistă este justificată, arată Hacking și din motive istorice. Filosoful englez este autorul unei splendide cărți despre istoria probabilităților – și nu numai despre istorie, ci o analiză a primelor idei despre probabilitate, inducție și inferență statistic㠖 intitulat㠄The Emergence of Probability”(1975) în care demonstrează că de la apariția probabilității în timpul lui Pascal, ea a fost esențial duală, atât aleatorie cât și epistemologică. Diferiții autori care au urmat au tratat câte una din cele două fețe, încercând să le reducă una la alta. „Dualitatea probabilității a fost mult timp cunoscută filosofilor. Generația actuală (de probabiliști nn.) poate că a aflat-o de la Carnap. Cu un secol în urmă ar fi putut-o afla de la Poisson sau Cournot. Carnap spunea că trebuie să distingem între ‘ ’ și ‘ ’; apoi a vorbit despre probabilitatea inductivă și cea statistică. Poisson și Cournot spuneau că trebuie să distingem între cuvintele franceze gata făcute chance și probabilité pentru a marca aceeași diferență. Înaintea lor, Condorcet a sugerat ‘facilité’ pentru conceptul aleator și ‘motif de croire’ pentru el epistemic. Bertrand Russell folosește pentru ultimul, cuvântul ‘credibility’… Dualitatea probabilității nu este ceva nou. Totuși, aici este ceva în neregulă. De ce această scotocire (groping for) a unei terminologii pentru a le distinge ?”([22], pag. 13).

            În general, arată autorul, teoriile despre probabilitate se împart în teorii epistemologice (care se referă, miop, numai la ) și statistice (care se referă, la fel de miop, numai la ). În prima categorie intră logicismul și subiectivismul: „În primele decenii ale secolului a fost mult interes față de teoriile avansate de Keynes și Jeffreys, conform cărora probabilitatea conferită unei ipoteze de un set de fapte epirice (evidence) ar fi o relație legică între două propoziții. Probabilitatea lui h în lumina lui e este ceva în genul gradului în care e îl implică logic pe h. Cercetătorii ulteriori au fost mai atrași de ceea ce Savage a numit ‘probabilitate personală’, introdusă de Ramsey și de Finetti”([22], pag.14).

            În a doua categorie intră teoriile axate pe tendința etalată de anumite contexte experimentale de a prezenta frecvențe stabile în serii lungi: „Unii cercetători, urmându-l pe von Mises s-au dirijat mai cu seamă asupra aspectelor fenomenale ale acestui fapt, furnizând teorii ale aleatorității (randomness) în serii infinite de experimente și, mai târziu, (Kolmogorov și Martin-Löf) cu rezultate privind aleatorul în serii finite. Alți cercetători au considerat că motivele fenomenelor de frecvență sunt mai importante decât cele fenomenale și, astfel, urmându-l pe Popper, dezvoltă o teorie a propensității unui context experimental de a produce diferite rezultate. Evident că aceștia din urmă nu se referă decât la . Probabilitatea de a apărea stema este o proprietate a monedei, la fel ca și masa ei, iar stabilitatea frecvențelor… este un fapt obiectiv al naturii” (idem).

            Distincția între cele două probabilități este oarecum analogă celei dintre masa gravifică și cea inerțială din mecanică, care, ea însăți este foarte greu de înțeles. Starea de fapt la care au ajuns diferitele teorii despre probabilitate arată însă c㠄diferitele tipuri de probabilitate sunt mai greu de înțeles și de deosebit una de alta decât masa gravifică și cea inerțial㔠([22], pag. 13).

            În această situație matematicienii se abțin de la orice participare la dispute și își văd de treab㠄continuând să își facă statistica lor și teoria deciziei indiferenți la toată această subtilitate acumulat㔠([22], pag.14). Alții, cu pretenții filosofice „trec cu seninătate de la o teorie la alta și depun eforturi să explice care concept de probabilitate îl folosesc meomentan”(idem). Dar, mai grav este că, în fiecare tabără există extremiști. Există personaliști, inclusiv de Finetti care consideră că propensitățile și orice altă interpretare obiectivă a probabilității nu reprezintă decât „pseudo-proprietăți misterioase” cărora nu li se poate atribui un sens decât prin probabilitatea personală. Există frecventiști care consideră că singurele concepte viabile sunt cele legate de frecvență. Astfel, munca de distingere între diferitele tipuri de probabilități a fost curios de înceată. Majoritatea celor care o viață întreagă au făcut sau au aplicat probabilități nu au dat nici o atenție deosebirilor. Etremiștii fiecărei școli argumentează cu vigoare că orice încercare de distingere este o rușine (shame) deoarece nu există decât un singur fel de probabilitate... Carnap și Cournot, înaintea lui, au eșuat notoriu în încercarea lor de a aduce pace între tabere prin încercarea lor judicioasă de a îmbina ambele puncte de vedere prin analiză conceptuală și distincție lingvistică. Aceasta sugerează că suntem în ghearele unor puteri mai întunecate decât se admite în ontologia pozitivistă. Ceva în legătură cu conceptul de probabilitate se opune separării care, gândea Carnap, ar fi esențială pentru progresul Teoriei. Dar ce anume ? ” ([22], pag. 14-15).

            Fapt este că în decursul a peste 300 de ani de existență, continuă autorul, conceptul de probabilitate a manifestat o încăpățânare și rigiditate ieșite din comun. Deși au fost zeci de teorii diferite despre el, „cineva care ar sta în spatele istoriei ar vedea cum același ciclu de teorii apare din nou și din nou” (pag. 15). De exemplu, pentru un istoric al filosofiei care l-a citit pe Bayes, subiectivismul stârnește un sentiment de „déjà vu”. Pentru a explica toate acestea trebuie, consideră Hacking, o excursie ab origine. Și de acolo poate proveni paradoxul că Neyman, Carnap și subiectiviștii se revendică de la același „Ars conjectandi” a lui Bernoulli. Iată răspunsul investigării, într-adevăr demn de meditație: „Invit cititorul să-și imagineze că există un spațiu al teoriilor posibile despre probabilitate care au fost relativ constante după 1660 și până astăzi (evident, nu se referă la formalismul matematic n.n.). În al doilea rând, că acest spațiu a rezultat dintr-o transformare asupra altor structuri conceptuale foarte diferite. În al treilea rând, unele caracteristici ale acestor structuri conceptuale, aproape uitate, s-au imprimat în schema prezentă de gândire. În al patrulea rând: poate că o înțelegere a acestui spațiu ne va elibera din acest ciclu de teorii” (pag. 16).

            Un reprezentant activ al propensionalismului este și filosoful și logicianul american Patrick Suppes. El a optat pentru această interpretare după ce inițial fusese un adept al lui Savage („lucrările lui Ramsey, de Finetti, Savage au construit un cântec de sirenă intelectual extrem de atrăgător. În trecut m-am simțit convins, dar în spatele gândirii mele au continuat să acționeze dubii sâcâitoare” ([??], pag. 515)). El nu reproșează subiectiviștilor lipsa de coerență logică, ci consideră c㠄noțiunea de probabilitate pare să fie prea fundamentală științei pentru a fi tratată ca exclusiv subiectivă”(idem). Să ne gândim la descompunerea radioactivă a radiumului – spune el. Probabilitatea trebuie să fie ceva fizic, manifestat prin tendințe, dar „o parte a lumii obiective așa cum este masa…Egalizând statutul epistemologic al masei numerice cu cel al probabilității numerice a descompunerii radioactive am ajuns să cred într-un concept numeric de probabilitate”([??], pag. 516).

            Scopul articolului [60] este să construiască un sistem axiomatic pentru propensotăți pornind, ca și de Finetti, de la axiome pur calitative și să arate că el este adecvat descrierii unor sisteme fizice ca, de exemplu, descompunerea radioactivă. În plus, introduce și el o axiomă a hazardului inspirată din conceptuld e interșanjabilitate al lui de Finetti. Deși sistemul de axiome este mai apropiat de cele subiectiviste (de exemplu de cel al lui Koopman [4] (vezi și Anexa 4)), totuși interpretarea este obiectivistă. În primul rând interpretarea subiectivistă a hazardului ca semn al ignoranței noastre și nimic mai mult i se pare nesatisfăcătoare: „Obiecția mea de bază este că teoriile subiective nu lasă loc pentru cerința științifică după care anumite fenomene, cum ar fi descompunerea radioactivă sunt fundamental aleatoare, adică, altfel spus, că anumite fenomene din natură prezintă hazardul în natură la fel cum altele prezintă deteminism. Sunt din ce în ce mai convins că o comportare complet deterministă este un fenomen mai degrabă special dar că credința nefericită de a căuta cauze și legi deterministe în natură pentru toate fenomenele pare să fi devenit teologia naturală modernă a multor filosofi. Pentru a putea combate această teologie nefundamentată aș vrea să pot aserta că aleatorul întâlnit în descompunerea radioactivă este un fenomen absolut la fel de obiectiv ca și faptul că viteza luminii este constantă în toate sistemele de referință inerțiale” ([60], pag. 518)

CONCLUZII

            Când am început investigațiile privind statutul epistemologic al probabilității nu mă interesa „ce este probabilitatea”  –  deoarece  aveam  pretenția  naivă  că știu ce este (o măsură cu masa totală 1 !) ci mi se părea neclar un singur lucru pe care simțeam că nu-l înțeleg: Cu ce drept consider că  ? Cum se poate calcula o probabilitate ? Este oare ea reductibilă la altceva decât la o altă probabilitate ?

            Acum, la capătul unei excursii obositoare prin lumea teoriilor despre probabilitate, lucrurile s-au tulburat și mai mult; sentimentul că nu mai știu nici ceea ce știam apare adesea.

            Într-adevăr, ce este acest concept încăpățânat care se refuză înțelegerii unui spirit bântuit de necesitatea rigorii ? Acum, cel puțin, sunt convins că este de două feluri: fizică și pistimetrică. Prin prima noțiune se poate înțelege:

            1. Limita frecvenței relative într-un șir virtual de probe efectuate în condiții principial identice (von Mises, Reichenbach);

            2. Un număr în jururl căruia oscilează frecvențele relative în serii lungi de experimente efectuate în aceleași condiții (Kolmogorov, Hincin, Cramér);

            3. Frecvența relativă prevăzută în cadrul unui model fizic (Drieschner);

            4. Măsura tendinței unui context experimental de a produce un rezultat (Popper);

            5. Un dispozitiv care produce frecvențe stabile în serii lungi de experimente (Hacking);

            6.  este tendința unei situații experimentale de a produce frecvențe relativ stabile în serii lungi de probe (Carnap);

            7. Măsură obiectivă a posibilității (Cournot și [13]).

            Prin probabilitate pistimetrică s-a înțeles:

            A. Grad subiectiv de încredere în producerea unui eveniment (Ramsey, de Finetti);

            B. Grad subiectiv de încredere în adevărul unei ipoteze în funcție de anumite rezultate exeprimentale și de alte criterii proprii subiectului (referentului) (Savage);

            C. O relație logică între un corp de date și o ipoteză în genul implicației parțiale (Keynes, Jeffreys, Carnap – cu , probabilitatea inductivă);

            D. Expresia numerică a unei informații despre existența în anumite condiții, a unui eveniment (Onicescu, [42], pag. 439).

            În ceea ce mă privește, aș opta pentru cuplul (4, B) deși mi-e teamă să fiu atât de decis; uneori mi se pare că (5, B) ar fi la fel de potrivit. Nu mai îmi este atât de rușine de lipsa mea de hotărâre de când am citit explicația avansată de Hacking a faptului că diferite teorii moderne incompatibile se revendică de la aceeași lucrare fundamentală a lui Jaques Bernoulli, „Ars Conjectandi”: „Adevărul trebuie să fie că el, ca mulți dinrte noi, era atras de taote aceste idei care par incompatibile și nu era sigur căreia dintre ele să-i acorde girul, pe care să mizeze (to rest his case)” ([22], pag. 143). În orice caz, obiecția propensionaliștilor că 1, 2, 3 se referă la aspecte fenomenale ale unei realități mai profunde mi se pare întemeiată. La fel cum accelerația este o manifestare fenomenală a forței, care explică, tot astfel frecvența stabilă este explicată e probabilitate, față de care ea este numai un aspect fenomenal.

            Continuu să cred, spre deosebire de Gière, că probabilitatea nu se referă la un eveniment, ci la un context experimental. Astfel, „probabilitatea unei steme” cred că este doar o prescurtare pentru „probabilitatea ca aruncând moneda în modul cutare să apară stema”.

            Deoarece consider probabilitatea ca fiind ceva obiectiv, sunt forțat să admit că ea se referă la o categorie obiectivă a realității, la hazard, ceva manifestat printr-o dezordine de tip special. Astfel își găsește justificarea ontologică și teoria cea mai dinamică din cadtul probabilităților: teoria proceselor stocastice. După cum arăta I. Cuculescu, „Considerăm categoria de hazard (randomness) ca ținând de o realitate obiectivă, și nu o considerăm esențial legată de incompletitudinea cunoștințelor noastre. De aceea considerăm că rezultatele teoriei probabilităților în ceea ce privește lumea reală au un caracter stabil și nu efemer” ([12], pag. 407).

            Analogia cu forța mai arată ceva: probabilitatea este o mărime ipotetică, adică ținând de un model explicativ a ceva (expresia, care mi se pare foarte fericită îi aparține lui Wright [65]). Adic[, lucrurile se petrec ca și cum ar exista o forță, ca și cum ar exista o probabilitate. Așa cum, observând o perturbare în mișcarea unui mobil considerăm că a apărut o forță răspunzătoare de aceasta și, mai mult, putem să îi calculăm valoarea, numai pe baza unor date fenomenale, tot astfel observând stabilizarea frecvențelor relative, considerăm că la baza acestui fenomen este o probabilitate, o propensitate. Dar explicarea stabilizării frecvenței, probabilitatea o face în tottalitatea ei, incluzând aspectul subiectiv (împreună cu alte câteva supoziții tehnice ca independența sau interșanjabilitatea). Și tot folosind probabilitatea sub ambele sale aspecte - obiectiv și subiectiv – și numai așa putem răspunde corect și la întrebarea „Cu ce drept consider că P(A) = p ?” Ca să fie mai clar la ce mă refer, iată următorul exemplu: dacă  este un șir de evenimente interșanjabile și , pentru n suficient de mare – mai mare ca , unde  (veyi [38], pag. 115) - se poate admite că frecvența  urmeayă o lege normală . Fie . Calcule simple arată că  și, deoarece , este imediat că .

            Până aici, totul a fost matematic, riguros. Cum aplic rezultatul pentru a calcula o probabilitate sau pentru a testa ipoteza că  ? Să presupunem că dispunem de 10000 de probe ale unui context experimental – de xemplu aruncarea unui dreptunghi de tablă între doi pereți verticali de sticlă; ne interesează cu ce probabilitate dreptunghiul cade pe latura mică. Mai întâi admit că experimentele sunt independente între ele, căci, dacă efectuez experimentul cu ajutorul unui dispozitiv mecanic nu pot apărea influențe înrte experimente. Aceasta este prima judecată subiectiv㠖 îmi vor reproșa cei mai atenți. Totuși, nu chiar atât de subiectivă, căci orice fizician este de acord că rezultatul aruncării, numărul n, nu poate influența următoarea aruncare. Dar să zicem că este subiectiv; ține de o convenție. Ipoteza independenței este o ipoteză statistică de bază, fără de care nu se poate face inferența. Orice inferență statistică se bazează pe câteva ipoteze neverificabile de bază, ca de altfel și orice altă inferență. Așa că eu voi considera că se poate admite obiectivitatea independenței – în sens fizic – a aruncărilor. Mai important este ce se întâmplă acum: să presupunem că au apărut 3200 de realizări ale experimentului. Bazat pe modelul expus mai sus - și , orice model este aproximativ – va rezulta:

sau, în definitiv, deoarece , rezultă .

            Ca să pot trage o concluzie, că adevărata valoare a lui p se află undeva între .31 și .33, trebuie să iau decizia de a interpreta subiectiv pe P sub forma „este foarte probabil că , deci este adevărat”. Riscul unei asemenea conjecturi este mai mic decât 5%. Ori, acest risc are natură subiectivă. Eu adopt decizia că  și nu mai sunt dsipus să efectuez o altă serie de 10000 de aruncări, care tot nu mi-ar spune nimic dacă interpretez obiectiv acest risc. Vorba lui Savage: cu ce mă ajută să știu că procedeul meu este bun în 95% din cazuri ? Eu vreau să trag o concluzie din datele de care dispun. Eu decid să am încredere că natura nu mi-a jucat un renghi urât făcând ca seria care mi-a apărut mie să fie printre cele 5% aberante.

            Fără saltul de la probabilitatea obiectivă la cea subiectivă nu se poate trage nici cea mai mică concluzie statistică.

            Concluzia finală pe care îndrăznesc să o exprim este că probabilitatea este obiectivă, dar statistica este subiectivă. Nu este nimic paradoxal aici. La fel cum lumea există obiectiv, dar eu nu reușesc să o cunosc decât prin structurile mele psihofiziologice, probabilitatea este obiectivă, dar nu pot ajunge la ea fără decizii subiective – deci fără probabilitatea subiectivă.