Seuraa 
Viestejä2144
Liittynyt27.5.2010

Otsikoksi kaavailin alunperin "Tietoisuuden suora vaikutus aivojen ulkopuoliseen materiaan (PSI)", mutta se ei mahtunut otsikkokenttään. Suoralla vaikutuksella tarkoitan sellaista vaikutusta, jossa vaikutus ei ole aivotoiminnan aiheuttaman ruumiinliikkeen seurausta. Epäsuoria vaikutuksiahan havaitsemme tietoisuudellamme olevan aivojen ulkopuoliseen materiaan joka päivä, olettaen että esimerkiksi keilaradalla tietoisuudellamme on "jokin osuus" kuulan heittämiseen, suuntaamiseen ja siten välillisesti keilojen kaatumiseen. Tai vaikkapa käden heiluttamiseen kasvojemme edessä.

Mutta ylimääräiset pulinat pois, ja nyt asiaan.

Dean Radin on tehnyt optisella kaksoisrakoasetelmalla kokeita, jossa testattiin tietoisuuden mahdollista osuutta kvanttitilan romahtamiseen. Koesessiot koostuivat vuorottelevista 15-30 s. jaksoista, joiden aikana koehenkilöt keskittivät huomionsa kaksoisrakolaitteistoon, ja sitten taas pois siitä. Havaittiin ennustetulla tavalla tilastollisesti merkittävä yhteys interferenssikuvion poikkeamien ja tietoisuuden keskittämisjaksojen välillä (z=-4.36, p=6·10^-6). Erityisen merkittävä oli meditaatiota harjoittaneiden osuus; kaikissa kuudessa kokeessa heidän vaikutuksensa oli tasaisen varmaa ja moninkertainen verrattuna ei-meditoijien vaikutukseen. Havaittu vaikutus korreloi myös sen kanssa, kuinka avointa koehenkilön suhtautuminen PSI-ilmiöihin oli, sekä koehenkilön syventyneisyyden kanssa. Kartoitettiin myös korrelaatio huomioon liittyvien EEG-neuromarkkereiden ja interferenssivaikutuksen välillä, ja havaittiin yhteys olemassaolevaksi.

Paperi on tässä: http://www.deanradin.com/papers/Physics ... 0final.pdf

Havaittu vaikutus eri kokeissa oli samaa suuruusluokkaa kuin vuonna 2003 tehdyn meta-analyysin mukainen keskimääräinen tavanomaisessa käyttäytymistieteiden kokeessa havaittu vaikutus. (Meditoijilla jopa paljon suurempi).

Dean Radin tulkitsee kokeiden antavan tukea kvanttimekaniikan ”tietoisuus romahduttaa kvanttitilan”-tulkinnalle. Radinin artikkelille on ilmestynyt kvanttifyysikoiden piiristä vain yksi laimeasti vastustava artikkeli, mutta siinäkään ei kiistetä PSI-tuloksia (jotka katsotaan osoitetuksi), vaan ainoastaan se, että tällä kokeella olisi ratkaistu oikea kvanttimekaniikan tulkinta. Kyseinen kvanttifyysikko Massimiliano Sassoli de Bianchi on innokas ”piilomittausformalismin” kannattaja, joten hän puolustaa innokkaasti omaa kvanttimekaniikan tulkintaansa. Mutta sillä, ratkaiseeko Radinin koe lopulta kvanttimekaniikan oikean tulkinnan tai ei, ei ole merkitystä siihen, kuinka kaksoisrakokokeessa on joka tapauksessa osoitettu tietoisella intentiolla voitavan merkittävästi vaikuttaa interferenssikuvioiden poikkeamiin. Eli tietoisuuden vaikutusta aineeseen, tavalla tai toisella.

Radinin koetulokset ovat poikineet uusia tutkimuksia ja tarkistuksia kvanttifysiikan alalla kyllä ihan siihen mittausongelmaankin liittyen, esimerkiksi seuraava:

https://sbs.arizona.edu/project/conscio ... p?abs=1651

Conscious Observation And The Double Slit Experiment: Subtle Effects In Reconstructed Dynamics.
Karla Galdamez , K. M. Galdamez
(Physics, IONS And UC Berkeley, Santa Cruz, CA ) P2

Through the present work, we review and re-interpret two accounts of quantum mechanics regarding the measurement problem, Continuous Spontaneous Collapse theory, (CSL), and Stochastic approach. Our aim is to present a further analysis of the double slit experiment and its relation to conscious intention based on the recently accepted article by Physics Essays entitled: 'Consciousness and the double-slit interference pattern: six experiments' by D. Radin et al. which demonstrates experimental evidence of John-von Neumann consciousness interpretation of wave function collapse in quantum theory. Within the CSL theory, our focus will lie on the study of non-linear differential Schrodinger equations with an emphasis on those abiding to non-locality and thus introducing the subject of superluminal velocities or faster than light travel. In this way we will explore Weinberg's perspective on the construction of a 'complete' theory of quantum mechanics with the added primary feature of conscious observation. We start by analyzing Benney-Roskes and Davey-Stewartson non-linear equations which arise primarily in water waves and then in non-linear optics. Thus in a reconcieved notion of CSL, including conscious observation as a primary element, we study wave function collapse and subsequent dynamics thereof. Similarly we compare our results with the local non-linear Schrodinger equation, the Bloch-type master equation, assuming Markovian approximation. Throughout these non-linear equations, we explore possible experimental applications whereby the non-linear term or noise factor can be potentially determined to contain a signature for conscious observation, i.e. coherence within the randomness. Subsequently, we present a stochastic approach of quantum theory abiding to a Brownian treatment for electron motion with the purpose of depicting specific relevant trajectories from source to detection in the double-slit experiment. In this section we review Bohmian quantum mechanics and trajectory motion along with possible experimental treatments of time arrival whereby conscious observation can potentially be determining factor. Our main equation of analysis will be the Ito stochastic differential equation through which calculations of sample paths (or trajectories) will be presented with a hypothesis as to where conscious observation may be detected.

consciousness and physics

Sivut

Kommentit (109)

Japetus
Seuraa 
Viestejä11158
Liittynyt20.6.2009

Kuinka ollakaan, tämäkin keskustelu on jo käyty ja Radinin temput paljastettu. Mutta eihän toki näitä haamujankutuksia voi tiedepalstalla koskaan olla liikaa.

Olli S. paljastaa salaisuutensa: "Mä puhun tahallani ristiin, että Japetus saisi oikeita aiheita syyttää mua."
o_turusen jännä fetissi: "Minä en todellakaan kuse housuuni vaan sinun silmääsi."
sääpeikolla leikkaa: "No ihmisen vaikutus ei ole alle 50% ja ei ole alle 50%.. eiköhän se olisi silloin 50-50 suurimman osan mukaan papereista... näin nopeasti pääteltynä"
Keijona ymmärtää naisia: "Onkohan sellaista munasolua edes olemassa ? Onko joku nähnyt sellaisen?"

Kirjekuori
Seuraa 
Viestejä2144
Liittynyt27.5.2010

Tämän kaksoisrakokokeen lisäksi Radin on suorittanut tutkimuksia mm. intention vaikutuksesta satunnaislukuihin. Yhteys on todettu olevan ajallisesta ja avaruudellisesta etäisyydestä huolimatta; mm. nk. "retrokausaalisuus"-ilmiö on havaittu kokeissa, jossa satunnaisdata otetaan ensin talteen ja vasta esim. viikon päästä satunnaislukujen keruusta pyritään vaikuttamaan generoitaviin/generoituihin satunnaislukuihin sillä hetkellä kun ne generoidaan/generoitiin.

[size=150:fx6l53j4]Evidence for Consciousness-Related Anomalies in Random Physical Systems[/size:fx6l53j4]

http://www.alice.id.tue.nl/references/r ... n-1989.pdf

Skeptikot ovat pyrkineet selittämään RNG-kokeiden tuloksia jollakin muulla kuin PSI:llä, esimerkiksi tutkimusten valikoivalla julkaisulla. Tällainen skeptinen paperi julkaistiin muutama vuosi sitten,

http://www.ebo.de/publikationen/pk_ma.pdf ,

jossa esitettiin seuraavaa:

[size=85:fx6l53j4]Publication bias appears to be the easiest and most encompassing explanation for the primary findings of the meta-analysis. The fit achieved by the Monte Carlo simulation was fairly good and clearly underpinned the hypothesis that the findings presented here are a result of publication bias. No other explanation accounted for all major findings (i.e., a striking variability of effect size, and the clearly visible small-study effect). Although the number of studies which have to be unpublished is considerable (N=1500), Bierman’s thought experiment does make this number appear to be more than possible.[/size:fx6l53j4]

Tuo linkki on nähty sivujuonteena mm. "Onnellisen ja hyvän elämän perusteet"-ketjussa. Ei mennyt kauaakaan, kun paperi osoittautui tyhjäksi pölinäksi. Skeptikot toki tunnustivat siinä PSI-tutkimuksen erityisen laadukkaaksi, mutta muuten paperin selitykset olivat viallisia ja ad hoc-selityksiä. Radin oikaisi Böschin, Steinkampin ja Bollerin artikkelin sisältämän hypoteesin ja siihen pohjautuvan selityksen seuraavassa paperissa:

Reexamining Psychokinesis: Comment on Bösch, Steinkamp, and Boller (2006).

Psychological Bulletin
Copyright 2006 by the American Psychological Association
2006, Vol. 132, No. 4, 529–53

http://www.deanradin.com/papers/radin_R ... h_bull.pdf

H. Bösch, F. Steinkamp, and E. Boller’s (2006) review of the evidence for psychokinesis confirms many of the authors’ earlier findings. The authors agree with Bösch et al. that existing studies provide statistical evidence for psychokinesis, that the evidence is generally of high methodological quality, and that effect sizes are distributed heterogeneously. Bösch et al. postulated the heterogeneity is attributable to selective reporting and thus that psychokinesis is “not proven.” However, Bösch et al. assumed that effect size is entirely independent of sample size. For these experiments, this assumption is incorrect; it also guarantees heterogeneity. The authors maintain that selective reporting is an implausible explanation for the observed data and hence that these studies provide evidence for a genuine psychokinetic effect.
...
[T]he size of these large studies refutes the plausibility of a file drawer explanation. [*"file drawer" tarkoittaa lipaston laatikkoon jääneitä julkaisemattomia tutkimuksia]. Bösch et al. argued, for example, on the basis of a suggestion by Bierman (1987), that a typical unpublished RNG experiment may contain 1.3 x 10^5 bits and that a file drawer of some 1,500 such studies is plausible if one postulates scores of investigators each generating 20 failed experiments per year. However, the file drawer required to reduce a set of four experiments consisting of 4.54 x 10^11 bits with an aggregate z of
4.03 to nonsignificance (two-tailed) must contain at least 1.47 x 10^12 bits and would therefore require somewhat over 11 million unpublished, nonsignificant experiments of the scale suggested by Bierman.

The actual import of these large studies is even worse for Bösch et al.’s assumption about the independence of effect size and sample size. Bo¨sch et al. did not mention that the studies in Dobyns et al. (2004) were designed to test the ypothesis that PK could be modeled as a shift in per-bit probabilities and, specifically, that such a shift would not be sensitive to the rate at which bits were collected. The immense size of this database relative to the other RNG studies arises from the use of an RNG designed to generate random bits 10,000 times faster than those previously deployed at the Princeton Engineering Anomalies Research (PEAR) Laboratory (Ibison, 1998). These experiments were identical in protocol and presentation to earlier RNG studies conducted at the PEAR Lab, which had produced positive effects, and therefore the strong negative z score resulting from the large studies demonstrates a clear dependence of the PK effect size on the speed with which random bits are generated. Bösch et al.’s arguments for heterogeneity and small-study effects are based on the premise that there is no such functional dependence. The high-speed RNG experiments reported in Dobyns et al. (2004) refute that premise, invalidating Bösch et al.’s assumption and thereby casting doubt on their conclusions.

Myös Monte Carlo-simulaation soveltuvuuden todettiin olevan kyseenalainen:

Bösch et al. asserted that their Monte Carlo model of selective reporting successfully explains (“matches the empirical z score almost perfectly” [p. 514] and “is in good agreement with all three major findings” [p. 515]) the large observed heterogeneity of effect sizes. But such statements, repeated throughout the article, put an overly enthusiastic spin on the actual results of their modeling efforts. As Bösch et al. showed in their Table 9, overall, the file drawer simulation resulted in highly significant underestimates of both the actual (negative) effect size and heterogeneity.

Further, the model’s input parameters completely predetermine its outcome, obviating the need for running the simulation. That is, Bösch et al. reported in their Table 9 that the model estimates 1,544 unpublished studies. Because p values are uniformly distributed by construction, a cursory inspection of the acceptance probabilities of their selection model reveals that the model will accept 0.197 of all studies presented to it. Thus, the number of file drawer studies it is expected to produce is (1 – 0.197)/0.197 or 4.076 times the number of surviving “published” studies in the postselection population. Their simulated result of 1,544/380 4.063 is then not surprising, almost exactly in alignment with this expected value.

In fact, a selection model of this sort can produce any desired output distribution by a suitable choice of breakpoints and weight factors. Bösch et al. were pleased by their model’s good fit to the observed effect sizes (although it is marginally adequate only for the Random Effects Model on the reduced data set) but unconcerned by the poor fit to the observed heterogeneity. This latter point is important because the observed heterogeneity cannot be fit except by considerably more stringent selection processes than those they consider.
...
We agree with Bösch et al. that the existing experimental database provides high-quality evidence suggestive of a genuine PK effect and that effect sizes are distributed heterogeneously. Bösch et al. proposed that the heterogeneity is due to selective reporting practices, but their ad hoc simulation fails to make a plausible argument in favor of that hypothesis.

Sitten hieman tosiasioita todellisesta julkaisemattomien tutkimusten määrästä käsiteltävänä ajanjaksona:

Bösch et al. proposed, on the basis of Bierman’s (1987) thought experiment, that if 30 researchers ran 20 experiments per year for 5 years, each with about 131,000 random bits, then this could plausibly account for the missing studies. Of course, all of those hypothetical studies would have had to escape Bösch et al.’s “very comprehensive search strategy” (p. 515), which included obscure technical reports and conference presentations in many languages. But beyond the hypothetical, in preparation for this commentary we conducted a survey among the members of an online discussion group that includes many of the researchers who have conducted RNG PK studies. The survey revealed that the average number of nonreported experiments per investigator was 1, suggesting that perhaps 59 studies were potentially missed by Bösch et al.’s search strategy. (Some of those missing studies were reportedly statistically significant.) In light of this file drawer estimate based on empirical data and the failure of Bösch et al.’s model to account for both the observed effect sizes and their heterogeneity, their assertion that “publication bias appears to be the easiest and most encompassing explanation for the primary findings of the metaanalysis” (p. 517) is unjustified.

Todellisuudessa siis julkaisemattomia tutkimuksia per tutkija oli keskimäärin 1, ja niistäkin julkaisemattomista tutkimuksista osa oli tilastollisesti merkittäviä.

Ensimmäinen reaktio eräillä patologisilla häirikköskeptikoilla on, että nämä tulokset syntyisivät jotenkin huijaamalla tai tempuilla. Sellaisilla huijaus- ja temppusyytöksillä he sumutuksen vuoksi sitten leimaavat täysin syyttömiä, rehellisiä ja vakavia tutkijoita. Sellaiset muita syyttömästi syyllistävät ja valheita levittävät skeptikot ovat tuossa tilanteessa itse huijareita. Asiaa paremmin tuntevat asiallisemmat skeptikot kuten Bösch et al myöntävät, kuten tässäkin on tullut useaan otteeseen ilmi, että PSI-tutkimus on todellisuudessa erinomaista.

Ja se tutkimus tukee PSI-ilmiötä. Erityisen mielenkiintoisia ovat nuo Radinin kaksoisrakokokeet, ja varsinkin meditoijien osuus niissä. Kokeesta toiseen. Millään helppoheikkitokaisuilla tai retorisilla hämäyksillä niitä tuloksia ei voi kumota.

Japetus
Seuraa 
Viestejä11158
Liittynyt20.6.2009
Kirjekuori
Tämän kaksoisrakokokeen lisäksi Radin on suorittanut tutkimuksia mm. intention vaikutuksesta satunnaislukuihin. Yhteys on todettu olevan ajallisesta ja avaruudellisesta etäisyydestä huolimatta; mm. nk. "retrokausaalisuus"-ilmiö on havaittu kokeissa, jossa satunnaisdata otetaan ensin talteen ja vasta esim. viikon päästä satunnaislukujen keruusta pyritään vaikuttamaan generoitaviin/generoituihin satunnaislukuihin sillä hetkellä kun ne generoidaan/generoitiin.

Kaikki nämä ovat täysin samojen ongelmien ryvettämiä. Huomautettakoon myös, että vaikutus haamutelekineesitutkimuksissa on häviävän pieni. Itse asiassa on kiistanalaista, kuinka merkittävä se ylipäätään on. Satutko muuten muistamaan vuoden takaisen vapaa tahto -keskustelun, jossa kovalla kädellä kritisoit kykyä ennustaa päätös 10s etukäteen, koska tarkkuus oli vain hieman alle 60%:n luokkaa - 50%:n ollessa satunnaisuuden raja? Kuinkahan sen taas sanoitkaan... Hmm... Ai niin: "aamurusko illan paska". (En hyvällä tahdollakaan käsitä, kuinka tuon fraasin logiikka toimii; ei kai sitä ole toimivaksi tarkoitettukaan. Ehkä vain le káka oli sinussa vahva, kuten aina.) Nyt kuitenkin, ajan hampaan kaluttua vuoden takaiset sulokikkareesi kolmannen käden jätteeksi, promotoit haamu-ulinaa, jossa vaikutuksen suuruus on prosentin sadasosien päässä satunnaisuuden rajasta. Siirtymä kohti 50%:n tulosta on myös selkeästi havaittavissa, kun tarkastellaan tutkimusten kokoja. Mitä enemmän koehenkilöitä ja mittauksia tutkimuksessa on käytetty, sitä lähempänä 50%:a tulokset ovat. Suurimmissa tutkimuksissa vaikutus itse asiassa jää alle 50%:n, mikä tarkoittaa negatiivista vaikutusta intentioon nähden. Koehenkilöiden jedi mind trick siis tuotti suurimmissa tutkimuksissa tavoiteltuun nähden vastakkaisen tuloksen - joskin vaikutus oli edelleen äärimmäisen minimaalinen.

Mahtaakin siten olla suuri se paska, joka tämän aamuruskon jäljessä kulkee, eikö vain? Kieltämättä alkaa kyllä käydä puuduttavaksi tämä tekopyhyydestäsi huomauttaminen. Menossa on nyt kolmas peräkkäinen kerta kolmen viimeisen sinulle osoittamani viestin sisään, kun aivan ilmeisestä vastaamassani viestissä harjoittamastasi tuplastandardin käytöstä mainitsen. Ironisesti kaiken moraalisen itsekorotuksesi jälkeen sinä olet kuitenkin se, joka vilppiä toistuvasti yrittää. Toisaalta se kyllä tukee mututeoriaani itsekorotuksen tarpeen negatiivisesta korrelaatiosta käytännön toimien kanssa. Erityisesti kaltaisiisi uskovaisiin tämä tuntuu sopivan kuin muna vittuun. Keep it up siis. Ehkä tästä vielä saa vähintään tapaustutkimuksen kasaan.

Skeptikot ovat pyrkineet selittämään RNG-kokeiden tuloksia jollakin muulla kuin PSI:llä, esimerkiksi tutkimusten valikoivalla julkaisulla. Tällainen skeptinen paperi julkaistiin muutama vuosi sitten,

http://www.ebo.de/publikationen/pk_ma.pdf ,

jossa esitettiin seuraavaa:

[size=85:1psps3vf]Publication bias appears to be the easiest and most encompassing explanation for the primary findings of the meta-analysis. The fit achieved by the Monte Carlo simulation was fairly good and clearly underpinned the hypothesis that the findings presented here are a result of publication bias. No other explanation accounted for all major findings (i.e., a striking variability of effect size, and the clearly visible small-study effect). Although the number of studies which have to be unpublished is considerable (N=1500), Bierman’s thought experiment does make this number appear to be more than possible.[/size:1psps3vf]

Tuo linkki on nähty sivujuonteena mm. "Onnellisen ja hyvän elämän perusteet"-ketjussa. Ei mennyt kauaakaan, kun paperi osoittautui tyhjäksi pölinäksi. Skeptikot toki tunnustivat siinä PSI-tutkimuksen erityisen laadukkaaksi, mutta muuten paperin selitykset olivat viallisia ja ad hoc-selityksiä.


Älä viitsi naurattaa. Siinä pätevästi osoitettiin, että RNG-tulokset voidaan selittää julkaisubiasilla. Artikkelissa myös tiedolla ja taidolla perattiin juuri Radinin analyysien mätä ydin koko kansan nähtäväksi. Tässä on ensin noppakokeiden analyysistä (sama on jo edellä mainitussa keskustelussa, mutta menköön nyt uudestaan):

Moreover, the meta-analysis has several limitations; Radin & Ferrari neither examined the source(s) of heterogeneity in their meta-analysis, nor addressed whether the strong correlation between effect size and target face disappeared when they trimmed the 79 studies not using a balanced design from the overall sample. The authors did not analyze potential moderator variables. For instance, the studies varied considerably regarding the type of feedback given to participants, with some participants gaining no feedback at all; the type of participant who was recruited, with some studies recruiting psychic claimants and other studies recruiting participants with no claim to having any “psychic powers”; and the experimental instructions that were given to participants, with some experiments asking participants to predict which die face would land uppermost in a future die cast thrown by someone other than the participant.

Ja sitten RNG-kokeista:

The limitations of this meta-analysis are very similar to the limitations of the dice meta-analysis. The authors did not examine the source(s) of heterogeneity and did not specify definite and conclusive inclusion and exclusion criteria.6 The authors took a very inclusive approach. Participants in the included studies varied from humans to cockroaches (Schmidt, 1979), feedback ranged from no feedback at all to the administration of electric shocks, and the meta-analysis included not only studies using true RNGs, which are RNGs based on true random sources such as electronic noise or radioactive decay, but also those using pseudo RNGs (e.g., Radin, 1982), which are based on deterministic algorithms. However, the authors did not discuss the extreme variance in the distribution of the studies’ z-scores and did not assess any potential moderator variables, which were also two limitations of the dice meta-analysis. Nevertheless, this first RNG meta-analysis served to justify further experimentation and analyses with the PK RNG approach.

Tuo "dice meta-analysis" viittaa edellä mainittuun noppakokeeseen. Radinin ja Nelsonin tutkimuksestaan 2003 julkaisema päivitys myös paitsi säilytti vanhat virheet myös laski vaikutuksen suuruutta:

Recently, Radin & Nelson (2003) published an update of their earlier (1989) RNG meta-analysis, adding a further 176 studies to their database. In this update, the PEAR laboratory data were collapsed into a new, single data point. The authors reported a simple mean effect size of 50.7%. Presented as such, the data appear to suggest that this updated effect size replicates that found in their first RNG meta-analysis. However, when the weighted fixed effects model (FEM) is applied to the data, as was used in the first RNG meta-analysis, the effect size of the updated database becomes π[size=85:1psps3vf]o[/size:1psps3vf]= .50005, which is significantly smaller than the effect size of the original RNG meta-analysis (zΔ = 4.27, p = 1.99 * 10-5; see Table 2 for comparison).7 One reason for the difference is the increase in sample size of the more recent experiments, which also have a concomitant decline in effect size.

Like the other meta-analyses, the updated 2003 meta-analysis did not investigate any potential moderator variables and no inclusion and exclusion criteria were specified; it also did not include a heterogeneity test of the database.

Noilla luvuilla Radinin pläjäys oli tietysti kaikkien kirjekuoristandardien mukaan jo syntyessäänkin aamun paska ja... ei kun miten le kákainen sutkauksesi se meni?

Tuosta korkeasta tutkimuslaadusta voi sitten olla montaa mieltä. Tutkijoiden harjoittama vilppi on hyvin yleistä erityisesti parapsykologian alalla:

http://jeksite.org/psi/misconduct.pdf

Experimenter misconduct has occurred many times in parapsychology and is a constant threat. It detracts from the scientific acceptance of the field and hinders progress by diverting resources to invalid hypotheses. The possibility of significant undetected fraud and analysis manipulation in parapsychological research has become increasingly plausible to me over the years. The lack of implementation of effective practices to detect and deter misconduct invites such behavior and makes undetected cases likely.

Hihhulitutkimuksen vertaisarviointi on melko luokatonta ja tulokset muutenkin heikosti toistettavia, mikä saa erityisesti foliopipon motivoimat haamuilijat helposti vetämään kotiinpäin. Hyvin mahdollisesti telekineesikansiossakin on lukuisia peukaloituja tuloksia.

Radin oikaisi Böschin, Steinkampin ja Bollerin artikkelin sisältämän hypoteesin ja siihen pohjautuvan selityksen seuraavassa paperissa:

Reexamining Psychokinesis: Comment on Bösch, Steinkamp, and Boller (2006).


Ja Böschillä ynnä muilla on edelleen oikaisu tähän vastaukseen:

http://citeseerx.ist.psu.edu/viewdoc/do ... 1&type=pdf

Jotenkin yllättävästi mikään ei ole muuttunut:

Our meta-analysis, which demonstrated (i) a small, but highly significant overall effect, (ii) a small study effect, and (iii) extreme heterogeneity, has provoked widely differing responses. After considering our respondents’ concerns about the possible effects of psychological moderator variables, the potential for missing data, and the difficulties inherent in any metaanalytic data, we reaffirm our view that publication bias is the most parsimonious model to account for all three findings.

H. Bösch, F. Steinkamp, and E. Boller’s (2006) review of the evidence for psychokinesis confirms many of the authors’ earlier findings. The authors agree with Bösch et al. that existing studies provide statistical evidence for psychokinesis, that the evidence is generally of high methodological quality, and that effect sizes are distributed heterogeneously. Bösch et al. postulated the heterogeneity is attributable to selective reporting and thus that psychokinesis is “not proven.” However, Bösch et al. assumed that effect size is entirely independent of sample size. For these experiments, this assumption is incorrect; it also guarantees heterogeneity. The authors maintain that selective reporting is an implausible explanation for the observed data and hence that these studies provide evidence for a genuine psychokinetic effect.

Tässä jo on selittelyn makua. Tuo "for these experiments" erityisesti on selvä ad hoc -indikaattori. "Kyl muute vaikutukse koon täytys säilyy, mut kato nää o spesiaalei nää meijän kokeet." Selitykseksi tälle Radin antaa varioivat koeolosuhteet. Eri kokeissa voidaan tuottaa sama määrä dataa, mutta osa niistä on voinut edellyttää viikkojen valmistautumista. Tämä ampuu täysin ohi maalistaan. Mikään tutkimus ei moista edellyttänyt, ja pientäkin manipulaatiota oli vain kolmanneksessa kokeista:

The meta-analysis was expressly designed to analyze potential moderator variables. To this end, we included a range of items in our coding book, such as whether psychological tests were taken in conjunction with a RNG experiment, including variables concerning the experimental setting, , and recording technical details about the type of RNG. We did not know in advance whether variables would be reported systematically or whether reports would provide sufficient data for an overall analysis. As it turned out, the physical or mental state of the participant (eg, requesting the participant to tense themselves up physically or asking them to enter a meditative state) was experimentally manipulated in only a third of the studies and only 30% of studies employed psychological measures. Moreover, the physical and mental states that were manipulated, the methods used to induce them, and the psychological measures employed in this minority of experiments differed greatly across the studies. Consequently, it was not advisable to perform an analysis on these variables.

[T]he size of these large studies refutes the plausibility of a file drawer explanation. [*"file drawer" tarkoittaa lipaston laatikkoon jääneitä julkaisemattomia tutkimuksia]. Bösch et al. argued, for example, on the basis of a suggestion by Bierman (1987), that a typical unpublished RNG experiment may contain 1.3 x 10^5 bits and that a file drawer of some 1,500 such studies is plausible if one postulates scores of investigators each generating 20 failed experiments per year. However, the file drawer required to reduce a set of four experiments consisting of 4.54 x 10^11 bits with an aggregate z of
4.03 to nonsignificance (two-tailed) must contain at least 1.47 x 10^12 bits and would therefore require somewhat over 11 million unpublished, nonsignificant experiments of the scale suggested by Bierman.

Mitä pirua? Radin nyt siis vain olettaa, että julkaistujen tutkimusten koko voi vaihdella mutta pöytälaatikkoon menevien ei - niistä pitäisi herran mukaan kaikkien olla korkeintaan 131 kilobittiä. Ihan samalla logiikalla nyt kuitenkin voidaan olettaa, että myös suuria tutkimuksia jää julkaisematta, mikä tasaa tarvittavien pöytälaatikkotutkimusten määrän.

The actual import of these large studies is even worse for Bösch et al.’s assumption about the independence of effect size and sample size. Bo¨sch et al. did not mention that the studies in Dobyns et al. (2004) were designed to test the ypothesis that PK could be modeled as a shift in per-bit probabilities and, specifically, that such a shift would not be sensitive to the rate at which bits were collected. The immense size of this database relative to the other RNG studies arises from the use of an RNG designed to generate random bits 10,000 times faster than those previously deployed at the Princeton Engineering Anomalies Research (PEAR) Laboratory (Ibison, 1998). These experiments were identical in protocol and presentation to earlier RNG studies conducted at the PEAR Lab, which had produced positive effects, and therefore the strong negative z score resulting from the large studies demonstrates a clear dependence of the PK effect size on the speed with which random bits are generated. Bösch et al.’s arguments for heterogeneity and small-study effects are based on the premise that there is no such functional dependence. The high-speed RNG experiments reported in Dobyns et al. (2004) refute that premise, invalidating Bösch et al.’s assumption and thereby casting doubt on their conclusions.
Entäpä ne kaikki suuret tutkimukset Dobynsin ja muiden raportoiman lisäksi, joissa tuijotettiin vuohia ihan perinteisellä nopeudella, mutta vaikutus oli samalla tavoin negatiivinen? Radin on nyt itse jättänyt mainitsematta kaikki niistä Böschin ja kumppanien käyttämistä tutkimuksista.

Mitenhän tuo negatiivinen korrelaatio muutenkaan toimisi? Intentio vaikuttaa haamuisesti satunnaislukuihin - jotka osassa tutkimuksia vieläpä toimivat deterministisen algoritmin mukaan - mutta jollain kumman tavalla se vaikuttaakin tulokseen täysin päinvastaisesti. Ai mutta tämähän selittää Murphyn lain ja sen, miksi voileipä aina putoaa voipuoli alaspäin. Kas juuri ennen leivän lätsähtämistä lattiaan toivoo pahaa-aavistamaton köntys kerrankin säästyvänsä niin työläältä rasvanhinkkaukselta. Mutta hän ei tiedä, että maailma on kylmä ja kiero paikka. Ilkikurinen demiurgi viidennessä ulottuvuudessa varmistaa, ettei yksikään unelma mene juuri niin pahasti vituiksi kuin pieni kulkija haluaisi sen toteutuvan. Nyt se on todistettu! Kiitos, Radin! Kiitos, Kirjis! Kiitos, Jumala! Kiitos myös teille, hyvät katsojat ja hyvää yötä.

Myös Monte Carlo-simulaation soveltuvuuden todettiin olevan kyseenalainen:

Bösch et al. asserted that their Monte Carlo model of selective reporting successfully explains (“matches the empirical z score almost perfectly” [p. 514] and “is in good agreement with all three major findings” [p. 515]) the large observed heterogeneity of effect sizes. But such statements, repeated throughout the article, put an overly enthusiastic spin on the actual results of their modeling efforts. As Bösch et al. showed in their Table 9, overall, the file drawer simulation resulted in highly significant underestimates of both the actual (negative) effect size and heterogeneity.


Yllä jo osoitettu, miksi tämä kusee kuin ravihevonen.

Further, the model’s input parameters completely predetermine its outcome, obviating the need for running the simulation. That is, Bösch et al. reported in their Table 9 that the model estimates 1,544 unpublished studies. Because p values are uniformly distributed by construction, a cursory inspection of the acceptance probabilities of their selection model reveals that the model will accept 0.197 of all studies presented to it. Thus, the number of file drawer studies it is expected to produce is (1 – 0.197)/0.197 or 4.076 times the number of surviving “published” studies in the postselection population. Their simulated result of 1,544/380 4.063 is then not surprising, almost exactly in alignment with this expected value.

Behold! Aion nyt suorittaa mahtavan laskutoimituksen, jonka tulos on 5. Simsalabim! 2+3! Taikuus, hyvät naiset ja herrat, on siinä, että lopputulos oli mahtavasti prederminoitu. Alussa mainitsemani tulos oli 5 ja sitten muokkasin 2+3:n maagisesti viitokseksi. Toinen teoreettinen mahdollisuus on, että etukäteen laskin 2+3, mutta kukapa sellaista nyt kuvittelisi. Radinin argumentti tuossa on aivan vastaavaa luokkaa. Millä perusteella hän väittää, että Bösch ja muut päättivät tuloksen etukäteen, ja muokkasivat sitten parametrinsa siihen sopiviksi? Jokseenkin todennäköisempää on, että ensin tehtiin simulaatio, ja tulos sitten vain artikkelissa mainittiin ennen sitä. Ilmeisesti Radin nyt tuossa haluaa kritisoida parametrien - kaiketi p-arvon ja julkaisun suhteeseen liittyvien - mutta hän ei esitä siitä mitään argumenttia, vaan valittaa vain tautologisesti predeterminoinnistaan.

In fact, a selection model of this sort can produce any desired output distribution by a suitable choice of breakpoints and weight factors. Bösch et al. were pleased by their model’s good fit to the observed effect sizes (although it is marginally adequate only for the Random Effects Model on the reduced data set) but unconcerned by the poor fit to the observed heterogeneity. This latter point is important because the observed heterogeneity cannot be fit except by considerably more stringent selection processes than those they consider.
...
We agree with Bösch et al. that the existing experimental database provides high-quality evidence suggestive of a genuine PK effect and that effect sizes are distributed heterogeneously. Bösch et al. proposed that the heterogeneity is due to selective reporting practices, but their ad hoc simulation fails to make a plausible argument in favor of that hypothesis.

Taaskaan tästä ei ole mitään perusteita. Että simulaation voisi saada tuottamaan minkä hyvänsä halutun tuloksen, ei tarkoita Böschin ja muiden aktuaalisesti tehneen niin. Aivan käsittämättömän epäolennaista ulinaa.

Sitten hieman tosiasioita todellisesta julkaisemattomien tutkimusten määrästä käsiteltävänä ajanjaksona:

Bösch et al. proposed, on the basis of Bierman’s (1987) thought experiment, that if 30 researchers ran 20 experiments per year for 5 years, each with about 131,000 random bits, then this could plausibly account for the missing studies. Of course, all of those hypothetical studies would have had to escape Bösch et al.’s “very comprehensive search strategy” (p. 515), which included obscure technical reports and conference presentations in many languages. But beyond the hypothetical, in preparation for this commentary we conducted a survey among the members of an online discussion group that includes many of the researchers who have conducted RNG PK studies. The survey revealed that the average number of nonreported experiments per investigator was 1, suggesting that perhaps 59 studies were potentially missed by Bösch et al.’s search strategy. (Some of those missing studies were reportedly statistically significant.) In light of this file drawer estimate based on empirical data and the failure of Bösch et al.’s model to account for both the observed effect sizes and their heterogeneity, their assertion that “publication bias appears to be the easiest and most encompassing explanation for the primary findings of the metaanalysis” (p. 517) is unjustified.


Tuo raportoimatta jääneiden tutkimusten hukkaaminen on pelkkää arvailua. Tietysti, jos mitään ei ole kirjoitettu, ei siitä voi saadakaan tietoa, mutta yhtä hyvin nuo 59 voivat olla siinä 225 meta-analyysiin kelpaamattoman raportin joukossa, johon Bösch tässä viittaa:

[size=85:1psps3vf]Meta-analytic results can be distorted not only by these publication biases, but also by the selection of publications to insert in the meta-analytic database11. Even the most wellintentioned, comprehensive search strategy aimed at including published as well as unpublished manuscripts can be fallible. We do not deny that we inadvertently missed some relevant reports, despite having done our best to contact all researchers in the field and to search through all the relevant journals and other publications. Nevertheless, we find it very unlikely that our literature search potentially missed 59 studies as suggested by RNDH, although RNDH’s ad hoc survey was addressing “non-reported experiments” (p. 9). If no report of the study has been written, no search strategy will ever return them and there is difficulty in knowing how to go about coding studies that are known about purely by word of mouth. Moreover, even if these “non-reported experiments” were written up but not published, it is not clear to us how RNDH can be sure that we had not deemed these reports as failing to meet the inclusion and exclusion criteria for our meta-analysis and deliberately excluded them. We have a list of 225 reports that did not meet our criteria and it is available to anyone who asks.[/size:1psps3vf]

Todellisuudessa siis julkaisemattomia tutkimuksia per tutkija oli keskimäärin 1, ja niistäkin julkaisemattomista tutkimuksista osa oli tilastollisesti merkittäviä.

Yhden foorumilla tehdyn kyselyn mukaan - joista molemmat saattoivat olla hyvin biasoituneita.

Ensimmäinen reaktio eräillä patologisilla häirikköskeptikoilla on, että nämä tulokset syntyisivät jotenkin huijaamalla tai tempuilla. Sellaisilla huijaus- ja temppusyytöksillä he sumutuksen vuoksi sitten leimaavat täysin syyttömiä, rehellisiä ja vakavia tutkijoita. Sellaiset muita syyttömästi syyllistävät ja valheita levittävät skeptikot ovat tuossa tilanteessa itse huijareita. Asiaa paremmin tuntevat asiallisemmat skeptikot kuten Bösch et al myöntävät, kuten tässäkin on tullut useaan otteeseen ilmi, että PSI-tutkimus on todellisuudessa erinomaista.

Kuten yllä lainaamastani artikkelista jo käy ilmi, hihhulitutkimuksen standardin ovat tieteen yleisiin kriteereihin nähden huomattavan puutteelliset ja vilppi on yleistä. Kaiken ei tietysti tarvitse olla tietoisen huijaamisen tulosta, vaan tiedostamatonkin bias voi toisinaan vääristää tuloksia. Ala on myös sen verran kiistanalainen, etteivät sinne ihan kaikkein intohimottomimmat veikot vipellä. Tämä luo helposti pohjan "teen mitä hyvänsä kasperin eteen" -populaatiolle, joka ei vilppiäkään kaihda, jos siihen tilaisuus tulee.

Ja se tutkimus tukee PSI-ilmiötä. Erityisen mielenkiintoisia ovat nuo Radinin kaksoisrakokokeet, ja varsinkin meditoijien osuus niissä. Kokeesta toiseen. Millään helppoheikkitokaisuilla tai retorisilla hämäyksillä niitä tuloksia ei voi kumota.

Ei tässä mitään retorisia keinoja tarvitakaan. Ihan omaan ääliömäisyyteensä myös tuo hihhuloinnin alalaji kaatuu. Julkaisubias on tähänastisista paras selitys havaitulle minimaaliselle vaikutukselle - niin minimaaliselle, että sitä ei edes omien kriteeriesi mukaan tulisi pitää arvailua kummempana. Tämän pelleilyn lyttäämistä kyllä hieman keventävät sen lukuisat huvittavuudet kierosta ilonpilaajauniversumista lähtien. En myöskään voi välttyä "the men who stare at goats" mielleyhtymältä, jonka tämä psykohihhulointi pakottaa pintaan. Todennäköisesti en voisi nauramatta edes osallistua moisiin kokeisiin. Ne vääjäämättä näyttäisivät ja tuntuisivat aivan liikaa tältä:

Olli S. paljastaa salaisuutensa: "Mä puhun tahallani ristiin, että Japetus saisi oikeita aiheita syyttää mua."
o_turusen jännä fetissi: "Minä en todellakaan kuse housuuni vaan sinun silmääsi."
sääpeikolla leikkaa: "No ihmisen vaikutus ei ole alle 50% ja ei ole alle 50%.. eiköhän se olisi silloin 50-50 suurimman osan mukaan papereista... näin nopeasti pääteltynä"
Keijona ymmärtää naisia: "Onkohan sellaista munasolua edes olemassa ? Onko joku nähnyt sellaisen?"

Kirjekuori
Seuraa 
Viestejä2144
Liittynyt27.5.2010

PSI-tutkimuksissa yleensä esiintyvä vaikutuskoko on pieni; tyypillisesti prosentin tai alle luokkaa. Tutkijat eivät toki esitäkään tämän suurempia väitteitä; he eivät esitä, että intentiolla voidaan pomminvarmasti muuttaa tulos haluttuun suuntaan (päinvastoin kuin eräiden aivotutkijoiden tutkimustuloksia tulkitaan keskustelupalstoilla harhaisesti siten, että tutkijat olisivat pomminvarmasti tienneet mikä valinta tulee olemaan. Jopa TV:n tiededokumenteissa tutkijoiden taholta välitetään sellainen kuva: "me tiesimme päätöksesi jo kuusi sekuntia ennenkuin itse tiesit sen").

Kuitenkin pienikin efekti vaatii selitystä. Jos miljoonien toistojen myötä efekti asettuu vaikkapa 1%:iin, niin odotusarvon ollessa 0% (nollahypoteesi), on osoitettu tilastollisesti erityisen merkittävällä tavalla, että takana on jokin vaikuttava tekijä, olkoon se syy sitten todellinen tietoisuuden vaikutus materiaan tai valikoiva julkaiseminen (aivan kuin valikoiva julkaiseminen sitten ei olisi tietoisuuden vaikutusta materiaan...pikkuhuomio).

PSI-data pitää sisällään tiettyjä piirteitä, joita ei-tietoisuustieteissä ei havaita. Tyypillisesti ensimmäisissä kokeissa saavutetaan selkeä intention mukainen vaikutus, mutta muutaman toiston jälkeen vaikutus laskee. Joissain tapauksissa vaikutus kääntyy toistojen myötä jopa intention vastaiseksi. RNG-kokeissa on havaittu samankaltainen ilmiö kasvatettaessa generoitujen bittien lukumäärää: pienillä bittimäärillä (sadoilla biteillä) vaikutus on positiivinen (intention mukainen) mutta vaikutettaessa miljooniin bitteihin vaikutus kääntyy negatiiviseksi (intention vastaiseksi).

Toistojen vaikutus efektiin tunnetaan muuallakin kuin vain PSI-tutkimuksissa. Ehkäpä vain perusfysiikka näyttää välttyneen tältä laskuefektiltä. Ainakaan sellaista ei fysiikassa ole toistaiseksi havaittu. Parhaiten vaikutus näkyy ihmistieteissä, ja yleisemminkin tietoisuus- ja elämätieteissä. Tiukin standardein ja tutkimuksin osoitettu ilmiö näyttää häipyvän toistojen myötä aivan normaalitieteessäkin. Toistoin osoitetuista ilmiöstä tulee ajan myötä ei-toistettava.

http://www.newyorker.com/reporting/2010 ... act_lehrer

On September 18, 2007, a few dozen neuroscientists, psychiatrists, and drug-company executives gathered in a hotel conference room in Brussels to hear some startling news. It had to do with a class of drugs known as atypical or second-generation antipsychotics, which came on the market in the early nineties. The drugs, sold under brand names such as Abilify, Seroquel, and Zyprexa, had been tested on schizophrenics in several large clinical trials, all of which had demonstrated a dramatic decrease in the subjects’ psychiatric symptoms. As a result, second-generation antipsychotics had become one of the fastest-growing and most profitable pharmaceutical classes. By 2001, Eli Lilly’s Zyprexa was generating more revenue than Prozac. It remains the company’s top-selling drug.

But the data presented at the Brussels meeting made it clear that something strange was happening: the therapeutic power of the drugs appeared to be steadily waning. A recent study showed an effect that was less than half of that documented in the first trials, in the early nineteen-nineties. Many researchers began to argue that the expensive pharmaceuticals weren’t any better than first-generation antipsychotics, which have been in use since the fifties. “In fact, sometimes they now look even worse,” John Davis, a professor of psychiatry at the University of Illinois at Chicago, told me.

Before the effectiveness of a drug can be confirmed, it must be tested and tested again. Different scientists in different labs need to repeat the protocols and publish their results. The test of replicability, as it’s known, is the foundation of modern research. Replicability is how the community enforces itself. It’s a safeguard for the creep of subjectivity. Most of the time, scientists know what results they want, and that can influence the results they get. The premise of replicability is that the scientific community can correct for these flaws.

But now all sorts of well-established, multiply confirmed findings have started to look increasingly uncertain. It’s as if our facts were losing their truth: claims that have been enshrined in textbooks are suddenly unprovable. This phenomenon doesn’t yet have an official name, but it’s occurring across a wide range of fields, from psychology to ecology. In the field of medicine, the phenomenon seems extremely widespread, affecting not only antipsychotics but also therapies ranging from cardiac stents to Vitamin E and antidepressants: Davis has a forthcoming analysis demonstrating that the efficacy of antidepressants has gone down as much as threefold in recent decades.

For many scientists, the effect is especially troubling because of what it exposes about the scientific process. If replication is what separates the rigor of science from the squishiness of pseudoscience, where do we put all these rigorously validated findings that can no longer be proved?

http://www.wired.com/wiredscience/2010/ ... ne-effect/

PSI-tutkimuksissa toki tämä sama ilmiö on havaittavissa kuten muuallakin. Radin on havainnut, että jos toistot suoritetaan täsmälleen samanlaisina, on laskuefekti suuri, mutta jos toistot tehdään lisäämällä kokeisiin joitakin uusia elementtejä samalla kun tutkittava ilmiö säilyy koeasetelmassa, voidaan laskuefektiä "paeta". Esimerkiksi kaksoisrakokokeissa koeasetelmaa muuteltiin toistosta toiseen lisäten siihen samalla suoritettavia EEG-mittauksia, uusia tarkempia vaihtoehtoisten hypoteesien mahdollisuuden poissulkevia tarkistuksia, psykologisen profiilin tarkistuksia jne. Ajoittainen koehenkilöiden vaihtaminen on myös oleellista, sillä PSI-ilmiöissä jos missä rutiinin tympäännyttävä vaikutus näkyy koetuloksissa. Koehenkilöiden innostuneisuus ja tuoreus lisää havaitusti efektiä - tarvittava harjoittelun määrä toki huomioonottaen.

Kokeentekijän ennakko-odotusten sekä koeympäristön ilmapiirin on osoitettu vaikuttavan tuloksiin. Nokkela PSI-tutkija käyttää tätä hyödykseen: hän itse on positiivinen koetulosten suhteen, ja luo innostunutta ilmapiiriä koehenkilöiden keskuuteen. Näin saavutetaan suurimmat efektit. Sen sijaan skeptikoiden järjestämissä kokeissa, joissa vallitsee mahdollisesti vihamielinen ja/tai epäilevä ilmapiiri, tuloksia ei saavuteta (tai sitten poikkeamia nollahypoteesistä kyllä on, mutta negatiiviseen suuntaan). Jostakin syystä kokeentekijän vaikutus on erityisen suuri, suhteessa lukumääräisesti koehenkilöiden lukumäärään. Samoin koetta tarkkailevilla on merkitystä: jos paikalle saapuu kokeeseen vihamielisellä asenteella suhtautuva tai vain epäilevä henkilö, efektit yleensä joko häipyvät kokonaan tai pienenevät.

Tutkijat ja muut jakautuvat siis "vuohiin ja lampaisiin", ja tämän psykologisen profiilin vaikutus näkyy koetuloksissa. Radinin kaksoisrakokokeissa havaittiin sama vaikutus: niillä henkilöillä, joilla oli avoin suhtautuminen PSI-ilmiöihin, oli suurempi vaikutus interferenssikuvioiden poikkeamiin kuin ei-niin-avoimilla. (Suurin havaittu merkitsevyys tutkittujen tekijöiden suhteen oli kuitenkin meditaation harjoittaminen, jonka vaikutus oli tasaisen varmaa. Ei-meditoijien tulokset vaihtelivat kokeesta toiseen ollen välillä negatiivisiakin, mutta meditoijat kumosivat tai tasasivat heidän heikot tuloksensa tehden jokaisesta suoritetusta kaksosrakokokeesta tilastollisesti merkittävän).

Vuohi- ja lammas-ilmiötä on kartoitettu laajemminkin, ja sen mukaan "vuohet" eli epäilijät näyttävät käyttävän tiedostamattomia PSI-kykyjään koetilanteessa PSI-ilmiöitä tukevien ilmiöiden sabotointiin! (tietämättään, tietenkin).

http://archived.parapsych.org/sheep_goat_effect.htm

Psi missing is one of the most startling discoveries of modern parapsychology. At times, certain individuals persist in giving the wrong answers in psi tests. The accumulation of systematically wrong answers can be so flagrant that it suggests something quite different than a mere lack of psi abilities: it is as if people use psi to consistently avoid the target, unconsciously "sabotaging" their own results!

A number of different psychodynamics could conceivably lead to psi missing, but one of the most solidly established is quite simple: belief. In 1942, Gertrude Schmeidler, professor of psychology at City University of New York, set up a questionnaire to explore students' beliefs about psi. She used the term "sheep" to refer to those who were confident about the reality of psi and "goats" for those who doubted its existence or its pertinence in the context of the test. After the questionnaire, she gave the students a classic psi test with ESP cards in which they tried to guess sequences of target- cards. Then Schmeidler compared the results of the psi test and those of the questionnaire. The remarkable conclusion was that the "sheep" had a significant deviation above chance, while "goats" were significantly below it.

This difference between believers and disbelievers, known as the "sheep-goat effect," has been confirmed by many other researchers. A meta-analysis by Lawrence (1992), covering 73 experiments by 37 different researchers, clearly confirms that subjects who believe in psi obtain, on the average, higher results than those who do not believe in it.

Uskomuksilla on toki osoitettu olevan suuria vaikutuksia tavanomaisemmassakin psykologiassa ja lääketieteessä. Jos henkilö ei usko kykenevänsä johonkin, niin sitä todennäköisemmin hän ei siihen myöskään pysty. Vastaavasti positiivisella uskomuksella saa tarpeen tullen ihmeitä aikaan. Uskomuksella omasta terveydentilasta on osoitettu olevan suurempi vaikutus elinikään kuin esim. tupakoinnilla. Jos objektiivisesti yhtä terveiksi havaituista kahdesta ihmisestä toinen ihminen uskoo olevansa täysin terve ja toinen sairas, niin näiden kohdalla vaikutus eliniän odotteesta asettuu jonnekin sinne seitsemän vuoden paikkeille.

Samoin hyvän psykologisen profiilin omaavien henkilöiden tai "lampaiden" on todettu hyötyvän placebo-efektistä paljon enemmän kuin "vuohien" tai vihaisten skeptikoiden. Kun "lampaat" ottavat vaivaansa mitä vaan, vaivat helpottavat todennäköisemmin kuin "vuohilla". Vihaprofiililla varustetuilla "vuohilla" sen sijaan nocebo-efekti on yleisempi kuin lampailla. Kannattaa siis oman itsensä ja hyvinvointinsa vuoksi katsoa (ympäristöstä puhumattakaan), minkälaista psykologista profiilia itsessään ylläpitää. Tällä en välttämättä tarkoita edes "oikeiden uskomusten" valitsemista, vaan valintaa vihamielisyyden ja avoimuuden välillä. Skeptikkokin voi olla terveesti avoin, samoin kuin uusiin tuloksiin periaatteessa myötämielisesti suhtautuva henkilö voi olla terveesti skeptinen.

Seuraavassa linkissä tuosta vuohien ja lampaiden plaseboefektistä. Hyväluonteisilla paitsi erittyy enemmän aivojen omia kivunlievitysaineita plasebon yhteydessä, myös koetun kivunlievityksen määrä on heidän kohdallaan samoilla aivoperäisillä kivunlievitysainemäärillä suurempi kuin toisenlaisella profiililla varustettujen kokema kivunlievitys. Nämä löydökset ovat johtaneet sellaisenkin mahdollisuuden harkitsemiseen, että lääkkeiden koehenkilöiksi valitaan vain vihaprofiililla varustettuja henkilöitä, joilla plasebo-efekti on mahdollisimman pieni. Se on johdonmukaista ja sopivaa: he tulevat todennäköisimmin myös tarvitsemaan rautakankisia lääkkeitä enemmän kuin muut, jolloin lääkkeiden koehenkilöryhmä ja tuleva käyttäjäryhmä vastaavat paremmin toisiaan, ja "lampaat" eivät pääse sotkemaan testituloksia mielensä voimalla paranemisellaan.

http://www.medicalnewstoday.com/articles/252874.php

Resilient People Experience More Relief From Placebos

Editor's Choice
Main Category: Neurology / Neuroscience
Also Included In: Psychology / Psychiatry
Article Date: 16 Nov 2012 - 0:00 PST

Being a "tough-cookie" could get you further in life than most people think, for example, you may be able to reap the benefits of pain relief from a placebo pill, according to new neuroscience research led by the University of Michigan.

The new research shows it isn't just your mind telling you the fake drug is working or not. Depending on your personality, the brain's personal painkiller chemicals can respond to the pain differently. For instance, if you are a more angry, hostile type, a placebo probably won't do much for you.

These findings are the first to identify specific links between established personality traits and a person's likelihood to experience pain relief from placebos. Researchers also found the degree of pain relief people felt from the placebo is linked to certain personality traits, in addition to the amount of a specific chemical that is released by the brain.

Laitetaan tähän loppuun vielä hauskana anekdoottina Pauli-efektinä tunnetun teoreettisen fyysikon Wolfgang Paulin tahaton vaikutus fysiikan kokeiden koelaitteiston toimimattomuuteen. Pauli itse ja hänen lähipiirinsä uskoi ilmiön olevan todellinen. Paulin aiheuttaman laitteistojen toimimattomuuden pelossa kokeellinen fyysikko Otto Stern jopa kielsi Paulia saapumasta laboratorioonsa, näiden ystävyydestä huolimatta. Sen kerran, kun Princetonin yliopiston syklotroni paloi, oli Pauli paikalla.

http://en.wikipedia.org/wiki/Pauli_effect

jogger
Seuraa 
Viestejä2936
Liittynyt28.8.2011
Kirjekuori
Laitetaan tähän loppuun vielä hauskana anekdoottina Pauli-efektinä tunnetun teoreettisen fyysikon Wolfgang Paulin tahaton vaikutus fysiikan kokeiden koelaitteiston toimimattomuuteen. Pauli itse ja hänen lähipiirinsä uskoi ilmiön olevan todellinen. Paulin aiheuttaman laitteistojen toimimattomuuden pelossa kokeellinen fyysikko Otto Stern jopa kielsi Paulia saapumasta laboratorioonsa, näiden ystävyydestä huolimatta. Sen kerran, kun Princetonin yliopiston syklotroni paloi, oli Pauli paikalla.

http://en.wikipedia.org/wiki/Pauli_effect


Tietokoneiden kanssa näyttää tapahtuvan sama asia minullakin. Jos pitää jotain nopeasti tehdä, kaikki ohjelmat alkavat tilttailemaan ja blue-screeniä pukkaamaan, sekä netti katkeilee tietysti. Olen havainnut myös että vitutuksen korkeus pahentaa tuota efektiä, se ruokkii itse itseään siis.

Outo juttu. Täytyy myöntää.

Foorumin salainen sääntö #1: Pienellä alkukirjaimella kirjoitetut aiheet lukitaan.
Foorumin salainen sääntö #2: Älä kerro kenellekään säännöstä #1 tai tulee bannit!

Japetus
Seuraa 
Viestejä11158
Liittynyt20.6.2009
Kirjekuori
PSI-tutkimuksissa yleensä esiintyvä vaikutuskoko on pieni; tyypillisesti prosentin tai alle luokkaa. Tutkijat eivät toki esitäkään tämän suurempia väitteitä; he eivät esitä, että intentiolla voidaan pomminvarmasti muuttaa tulos haluttuun suuntaan (päinvastoin kuin eräiden aivotutkijoiden tutkimustuloksia tulkitaan keskustelupalstoilla harhaisesti siten, että tutkijat olisivat pomminvarmasti tienneet mikä valinta tulee olemaan. Jopa TV:n tiededokumenteissa tutkijoiden taholta välitetään sellainen kuva: "me tiesimme päätöksesi jo kuusi sekuntia ennenkuin itse tiesit sen").

Tutkimuksessa käytetystä laitteistosta riippuen päätös kyllä voidaan ennustaa lähes 90%:n tarkkuudella sekunteja ennen, jolloin voidaan hyvinkin jo puhua tietämisestä. 60%:n tarkkuus 10s ennen ei ole läheskään koko tarina - toisin kuin prosentin sadasosat vuohentuijottelussa.

Kuitenkin pienikin efekti vaatii selitystä. Jos miljoonien toistojen myötä efekti asettuu vaikkapa 1%:iin, niin odotusarvon ollessa 0% (nollahypoteesi), on osoitettu tilastollisesti erityisen merkittävällä tavalla, että takana on jokin vaikuttava tekijä, olkoon se syy sitten todellinen tietoisuuden vaikutus materiaan tai valikoiva julkaiseminen (aivan kuin valikoiva julkaiseminen sitten ei olisi tietoisuuden vaikutusta materiaan...pikkuhuomio).

Tietoisuus on materiaa; tuo viimeinen on silkka oksymoroni. 1% miljoonien toistojen jälkeen on myös silkkaa haaveilua. Hyvä, jos prosentin prosenttiin jää.

PSI-data pitää sisällään tiettyjä piirteitä, joita ei-tietoisuustieteissä ei havaita. Tyypillisesti ensimmäisissä kokeissa saavutetaan selkeä intention mukainen vaikutus, mutta muutaman toiston jälkeen vaikutus laskee. Joissain tapauksissa vaikutus kääntyy toistojen myötä jopa intention vastaiseksi. RNG-kokeissa on havaittu samankaltainen ilmiö kasvatettaessa generoitujen bittien lukumäärää: pienillä bittimäärillä (sadoilla biteillä) vaikutus on positiivinen (intention mukainen) mutta vaikutettaessa miljooniin bitteihin vaikutus kääntyy negatiiviseksi (intention vastaiseksi).

Ei se noin mene. Kyse on ihan siitä, että pienempi bittimäärä antaa kymmenen klaavaa peräkkäin saaneille tuurihaukoille suuremman merkityksen kuin niillä tulisi olla. Jos kyseessä olisi aito haamuvaikutus, se näkyisi myös pitkässä juoksussa, mutta jos kyse on tuurista, vaikutus heikkenee mitä kattavampi tutkimus on kyseessä. Ja todistetusti jälkimmäinen trendi vastaa todellisuutta.

Toistojen vaikutus efektiin tunnetaan muuallakin kuin vain PSI-tutkimuksissa. Ehkäpä vain perusfysiikka näyttää välttyneen tältä laskuefektiltä. Ainakaan sellaista ei fysiikassa ole toistaiseksi havaittu.

Eikö? Voisin vaikka vannoa, että joka kerta salilla käydessäni alussa menee aivan mahtavasti, mutta toistojen karttuessa meno alkaa hiipua pysähtyen lopulta kokonaan. Kumma juttu tosiaan, jos tällaista toistovaikutusta ei ole kukaan muu missään huomannut.

Parhaiten vaikutus näkyy ihmistieteissä, ja yleisemminkin tietoisuus- ja elämätieteissä. Tiukin standardein ja tutkimuksin osoitettu ilmiö näyttää häipyvän toistojen myötä aivan normaalitieteessäkin. Toistoin osoitetuista ilmiöstä tulee ajan myötä ei-toistettava.

http://www.newyorker.com/reporting/2010 ... act_lehrer


Ei tuossa ole mitään ihmeellistä. Laajasti käytettyjen lääkkeiden vaikutus voi heiketä toleranssin takia. Paljon käytetyistä lääkkeistä on havaittu jäämiä mm. vesijohtovedessä. Tuo kasvontunnistus taas perustuu holistisen ja seriaalisen prosessoinnin eroihin. Me tunnistamme kasvot holistisesti, mutta niiden piirteiden kuvailu edellyttää analyyttistä ja seriaalista prosessointia, mikä tekee kokonaisuuden tunnistamisesta vaikeampaa.

Huomautettakoon muuten vielä, että Jonah Lehrer, tuon artikkelin kirjoittaja, on suuremman luokan huijari, joka jäi viime vuonna kiinni sitaattien ja faktojen keksimisestä. Kannattaa suhtautua pienellä varauksella kaikkeen hänen lähimenneisyydessä kirjoittamaansa.

PSI-tutkimuksissa toki tämä sama ilmiö on havaittavissa kuten muuallakin. Radin on havainnut, että jos toistot suoritetaan täsmälleen samanlaisina, on laskuefekti suuri, mutta jos toistot tehdään lisäämällä kokeisiin joitakin uusia elementtejä samalla kun tutkittava ilmiö säilyy koeasetelmassa, voidaan laskuefektiä "paeta". Esimerkiksi kaksoisrakokokeissa koeasetelmaa muuteltiin toistosta toiseen lisäten siihen samalla suoritettavia EEG-mittauksia, uusia tarkempia vaihtoehtoisten hypoteesien mahdollisuuden poissulkevia tarkistuksia, psykologisen profiilin tarkistuksia jne. Ajoittainen koehenkilöiden vaihtaminen on myös oleellista, sillä PSI-ilmiöissä jos missä rutiinin tympäännyttävä vaikutus näkyy koetuloksissa. Koehenkilöiden innostuneisuus ja tuoreus lisää havaitusti efektiä - tarvittava harjoittelun määrä toki huomioonottaen.

Höpön löpön. Efekti on niin julmetun pieni muutenkin, että tuo lähestyy jo olematonta.

Kokeentekijän ennakko-odotusten sekä koeympäristön ilmapiirin on osoitettu vaikuttavan tuloksiin. Nokkela PSI-tutkija käyttää tätä hyödykseen: hän itse on positiivinen koetulosten suhteen, ja luo innostunutta ilmapiiriä koehenkilöiden keskuuteen. Näin saavutetaan suurimmat efektit. Sen sijaan skeptikoiden järjestämissä kokeissa, joissa vallitsee mahdollisesti vihamielinen ja/tai epäilevä ilmapiiri, tuloksia ei saavuteta (tai sitten poikkeamia nollahypoteesistä kyllä on, mutta negatiiviseen suuntaan). Jostakin syystä kokeentekijän vaikutus on erityisen suuri, suhteessa lukumääräisesti koehenkilöiden lukumäärään. Samoin koetta tarkkailevilla on merkitystä: jos paikalle saapuu kokeeseen vihamielisellä asenteella suhtautuva tai vain epäilevä henkilö, efektit yleensä joko häipyvät kokonaan tai pienenevät.

Kokeenjohtajan vaikutus on tietenkin suhteellinen, koska pienemmällä koehenkilömäärällä kerätään vähemmän dataa ja sattuman merkitys kasvaa. Tämä juuri oli Böschin ja kollegojensa merkittävin havainto. Jos kyse ei olisi sattumasta moista trendiä ei havaittaisi. Nuo kaiken maailman iloiset mielet ja halinalleasenteet taas ovat täysin naurettavia. Ei voida luotettavasti sanoa edes, että mitään vaikutusta on koskaan olemassa, saati sitten, että se katoaa, jos halinallelataus loppuu kesken. Mutta jos nyt jotain vaikutusta haetaan, niin mahdollista on myös, että "avoimin mielin" suhtautuva haamukarja havaitsee yhtä lailla biasoituneen kokeenjohtajan äänestä tai muusta olemuksesta vinkkejä oikeasta vastauksesta. Tämä olisi parhaimmillaankin hyvin heikkoa, mutta niin on haamuvaikutuskin.

Tutkijat ja muut jakautuvat siis "vuohiin ja lampaisiin", ja tämän psykologisen profiilin vaikutus näkyy koetuloksissa. Radinin kaksoisrakokokeissa havaittiin sama vaikutus: niillä henkilöillä, joilla oli avoin suhtautuminen PSI-ilmiöihin, oli suurempi vaikutus interferenssikuvioiden poikkeamiin kuin ei-niin-avoimilla. (Suurin havaittu merkitsevyys tutkittujen tekijöiden suhteen oli kuitenkin meditaation harjoittaminen, jonka vaikutus oli tasaisen varmaa. Ei-meditoijien tulokset vaihtelivat kokeesta toiseen ollen välillä negatiivisiakin, mutta meditoijat kumosivat tai tasasivat heidän heikot tuloksensa tehden jokaisesta suoritetusta kaksosrakokokeesta tilastollisesti merkittävän).

Vuohi- ja lammas-ilmiötä on kartoitettu laajemminkin, ja sen mukaan "vuohet" eli epäilijät näyttävät käyttävän tiedostamattomia PSI-kykyjään koetilanteessa PSI-ilmiöitä tukevien ilmiöiden sabotointiin! (tietämättään, tietenkin).


Voi hyvä luoja. Tämä on juuri sitä Murphyn lain todistamista. Mitään tästä ei todellisuudessa tapahdu, jos katsotaan useita tutkimuksia pitkällä aikavälillä, kuten jo osoitettu. Vaikutus on oikeastaan niin mitätön, että voidaan kiistellä sen tapahtumisesta ensinkään.

Uskomuksilla on toki osoitettu olevan suuria vaikutuksia tavanomaisemmassakin psykologiassa ja lääketieteessä. Jos henkilö ei usko kykenevänsä johonkin, niin sitä todennäköisemmin hän ei siihen myöskään pysty. Vastaavasti positiivisella uskomuksella saa tarpeen tullen ihmeitä aikaan. Uskomuksella omasta terveydentilasta on osoitettu olevan suurempi vaikutus elinikään kuin esim. tupakoinnilla. Jos objektiivisesti yhtä terveiksi havaituista kahdesta ihmisestä toinen ihminen uskoo olevansa täysin terve ja toinen sairas, niin näiden kohdalla vaikutus eliniän odotteesta asettuu jonnekin sinne seitsemän vuoden paikkeille.

Täysin eri asia. Tässä on ihan todellinen kausaalinen linkki, jolla plasebo- ja nosebovaikutus tapahtuu. Toki noitakin on liioiteltu oikein urakalla. Etenkin haamuhihhulit tekevät sitä jatkuvasti.

Samoin hyvän psykologisen profiilin omaavien henkilöiden tai "lampaiden" on todettu hyötyvän placebo-efektistä paljon enemmän kuin "vuohien" tai vihaisten skeptikoiden. Kun "lampaat" ottavat vaivaansa mitä vaan, vaivat helpottavat todennäköisemmin kuin "vuohilla". Vihaprofiililla varustetuilla "vuohilla" sen sijaan nocebo-efekti on yleisempi kuin lampailla. Kannattaa siis oman itsensä ja hyvinvointinsa vuoksi katsoa (ympäristöstä puhumattakaan), minkälaista psykologista profiilia itsessään ylläpitää. Tällä en välttämättä tarkoita edes "oikeiden uskomusten" valitsemista, vaan valintaa vihamielisyyden ja avoimuuden välillä. Skeptikkokin voi olla terveesti avoin, samoin kuin uusiin tuloksiin periaatteessa myötämielisesti suhtautuva henkilö voi olla terveesti skeptinen.

Ziisus mitä saarnaa. Ei tämä Pascalin vaa'an irvikuva ole yhtään sen parempi kuin alkuperäinenkään. Avoin halinallemainen asenne typeryyksiin voi pidentää elämää mutta laskee samalla sen laatua niin paljon, ettei hengissä pysyminen enää paljon houkuttelisikaan.

Seuraavassa linkissä tuosta vuohien ja lampaiden plaseboefektistä. Hyväluonteisilla paitsi erittyy enemmän aivojen omia kivunlievitysaineita plasebon yhteydessä, myös koetun kivunlievityksen määrä on heidän kohdallaan samoilla aivoperäisillä kivunlievitysainemäärillä suurempi kuin toisenlaisella profiililla varustettujen kokema kivunlievitys. Nämä löydökset ovat johtaneet sellaisenkin mahdollisuuden harkitsemiseen, että lääkkeiden koehenkilöiksi valitaan vain vihaprofiililla varustettuja henkilöitä, joilla plasebo-efekti on mahdollisimman pieni. Se on johdonmukaista ja sopivaa: he tulevat todennäköisimmin myös tarvitsemaan rautakankisia lääkkeitä enemmän kuin muut, jolloin lääkkeiden koehenkilöryhmä ja tuleva käyttäjäryhmä vastaavat paremmin toisiaan, ja "lampaat" eivät pääse sotkemaan testituloksia mielensä voimalla paranemisellaan.

Ei tuollainen itse asiassa ole tarpeen. Tuplasokkokokeissa on aina plaseboryhmä, jonka tuloksia voidaan verrata varsinaiseen koeryhmään. Keskiarvoistettu vaikutus kyllä näkyy ilman karjaeläimiin jaotteluakin.

Laitetaan tähän loppuun vielä hauskana anekdoottina Pauli-efektinä tunnetun teoreettisen fyysikon Wolfgang Paulin tahaton vaikutus fysiikan kokeiden koelaitteiston toimimattomuuteen. Pauli itse ja hänen lähipiirinsä uskoi ilmiön olevan todellinen. Paulin aiheuttaman laitteistojen toimimattomuuden pelossa kokeellinen fyysikko Otto Stern jopa kielsi Paulia saapumasta laboratorioonsa, näiden ystävyydestä huolimatta. Sen kerran, kun Princetonin yliopiston syklotroni paloi, oli Pauli paikalla.

http://en.wikipedia.org/wiki/Pauli_effect


On paljonkin tapauksia, joissa yksi ihminen on ollut paikalla useissa onnettomuuksissa tai muuten vain merkillisissä tapauksissa. Violet Jessop selvisi kolmesta vakavasta merionnettomuudesta, joista kaksi oli uppoamisia. Pitäisikö tämän nyt sitten tarkoittaa tämä, että hän aiheutti onnettomuudet? Historiassa on paljo eriskummallisia sattumuksia, osan on ihan tilastollisesti oltava hyvin epätodennäköisiä. Vain täysi ääliö jaksaa huutaa ihmettä jokaisen kohdalla.

Olli S. paljastaa salaisuutensa: "Mä puhun tahallani ristiin, että Japetus saisi oikeita aiheita syyttää mua."
o_turusen jännä fetissi: "Minä en todellakaan kuse housuuni vaan sinun silmääsi."
sääpeikolla leikkaa: "No ihmisen vaikutus ei ole alle 50% ja ei ole alle 50%.. eiköhän se olisi silloin 50-50 suurimman osan mukaan papereista... näin nopeasti pääteltynä"
Keijona ymmärtää naisia: "Onkohan sellaista munasolua edes olemassa ? Onko joku nähnyt sellaisen?"

Kirjekuori
Seuraa 
Viestejä2144
Liittynyt27.5.2010

Jottei totuus unohtuisi, katsotaanpa mikä on neurotieteen tilanne tieteenalana luotettavuutensa suhteen. Eipä ole häävi, vaan sen surkea tilanne epäluotettavana tieteenä on aiheuttanut viime aikoina laajaa hämmennystä. PSI-tutkimuksessahan efektit ovat tyypillisesti pieniä mutta otokset kuitenkin isoja, minkä vuoksi poikkeamat nollahypoteesistä voidaan tilastollisesti luotettavalla tavalla osoittaa. Laajoissa meta-analyyseissä p on usein luokkaa 10^-6 tai jopa 10^-9, tarkoittaen että sattuma selityksenä voisi olla tulosten syynä ehkä vain todennäköisyydellä 1/miljoona, tai 1/miljardi. Neurotieteessä sen sijaan otokset ovat tavattoman pieniä, sekä usein myös efektitkin, vaikka efektit ovatkin toki isompia kuin PSI-tutkimuksissa. Etenkin otosten pienuuden vuoksi neurotieteen luotettavuus kokeellisena tieteenalana kärsii. Tämän vuoden keväällä asiaan on kiinnitetty ansaitusti oikein kunnolla huomiota. Neurotiede on saanut lehdistössä pääosin murskaavan tuomion osakseen; sen luotettavuus tieteenalana on kuuluvasti ja asiaankuuluvasti kyseenalaistettu.

http://www.guardian.co.uk/science/sifti ... er-matters

”unreliable-neuroscience-power-matters”

When I started my PhD a few years ago, I thought that certain psychological findings were established fact. The next four years were an exercise in disillusionment. If the effects I was seeking to explore were so reliable, so established, why could I not detect them?

Worryingly for science (but somewhat comforting for my self-esteem as a researcher) this may be because many of the conclusions drawn from published research findings are false.

[S]purious chance findings may never be refuted and may continue to contaminate the literature. More dangerously, unreliable findings may lead to unhelpful applications of science in clinical or community settings.

There is also an impact on young researchers. It can be demoralising to spend months trying to replicate a seemingly well-established effect to no avail, only to later find out that neither could many other researchers but they just didn't publish their data.

http://www.sciencecodex.com/reliability ... ned-110141

New research has questioned the reliability of neuroscience studies, saying that conclusions could be misleading due to small sample sizes.

A team led by academics from the University of Bristol reviewed 48 articles on neuroscience meta-analysis which were published in 2011 and concluded that most had an average power of around 20 per cent – a finding which means the chance of the average study discovering the effect being investigated is only one in five.

The paper, being published in Nature Reviews Neuroscience today [10 April], reveals that small, low-powered studies are 'endemic' in neuroscience, producing unreliable research which is inefficient and wasteful.

It focuses on how low statistical power – caused by low sample size of studies, small effects being investigated, or both – can be misleading and produce more false scientific claims than high-powered studies.

http://bps-research-digest.blogspot.fi/ ... ntire.html

Psychology has had a torrid time of late, with fraud scandals and question marks about the replicability of many of the discipline's key findings. Today it is joined in the dock by its more biologically oriented sibling: Neuroscience. A team led by Katherine Button at the School of Experimental Psychology in Bristol, and including psychologist Brian Nosek, founder of the new Center for Open Science, make the case in a new paper that the majority of neuroscience studies involve woefully small sample sizes, rendering their results highly unreliable. "Low statistical power is an endemic problem in neuroscience," they write.

At the heart of their case is a comprehensive analysis of 49 neuroscience meta-analyses published in 2011 (that's all the meta-analyses published that year that contained the information required for their purposes).

http://blogs.scientificamerican.com/tal ... liability/

New Study: Neuroscience Research Gets an “F” for Reliability

Brain studies are the current darling of the sciences, research capable of garnering tens or even hundreds of millions in new funding for ambitious new projects, the kind of money that was once reserved only for big physics projects.

Except the house of neuroscience, which attracts tens of thousands of attendees each year to the annual meeting of the Society for Neuroscience, may be built on a foundation of clay. Those are the implications of an analysis published online April 10 in Nature Reviews Neuroscience, which questions the reliability of much of the research in the field.

The study—led by researchers at the University of Bristol—looked at 48 neuroscience meta-analyses (studies of studies) from 2011 and found that their statistical power reaches only 21 percent, meaning that there is only about a one in five chance that any effect being investigated by the researchers—whether a compound acts as an anti-depressant in rat brains, for instance—will be discovered. Anything that does turn up, moreover, is more likely to be false. The low power stems from the small size of the studies and minuscule effects.

http://phenomena.nationalgeographic.com ... the-power/

The brain has hit the big time. Barack Obama has just announced $100 million of funding for the BRAIN Intitiative—an ambitious attempt to apparently map the activity of every neuron in the brain. On the other side of the Atlantic, the Human Brain Project will try to simulate those neurons with a billion euros of funding from the European Commission. And news about neuroscience, from dream-decoding to mind-melding to memory-building, regularly dominates the headlines.

But while the field’s star seems to be rising, a new study casts a disquieting shadow upon the reliability of its results. A team of scientists led by Marcus Munafo from the University of Bristol analysed a broad range of neuroscience studies and found them plagued by low statistical power.

Statistical power refers to the odds that a study will find an effect—say, whether antipsychotic drugs affect schizophrenia symptoms, or whether impulsivity is linked to addiction—assuming those effects exist. Most scientists regard a power of 80 percent as adequate—that gives you a 4 in 5 chance of finding an effect if there’s one to be found. But the studies that Munafo’s team examined tended to be so small that they had an average (median) power of just 21 percent. At that level, if you ran the same experiment five times, you’d only find an effect on one of those. The other four tries would be wasted.

But if studies are generally underpowered, there are more worrying connotations beyond missed opportunities. It means that when scientists do claim to have found effects—that is, if experiments seem to “work”—the results are less likely to be real. And it means that if the results are actually real, they’re probably bigger than they should be. As the team writes, this so-called “winner’s curse” means that “a ‘lucky’ scientist who makes the discovery in a small study is cursed by finding an inflated effect.”

So, a field that is rife with low power is one that is also rife with [size=180:28osrl2w]wasted effort, false alarms and exaggerated results[/size:28osrl2w]. ( Siinä se "celebrated neuroscience" joka on tämänkin palstan mukaan muka todistanut vaikka mitä. Neurotieteen tuloksiin tulee ylläolevien artikkeleiden valossa suhtautua tosiasiassa suurella varauksella. Siksi että ne ovat epäluotettavia. )

- - -

Huomattakoon, että pienistä efekteistään huolimatta PSI-tutkimuksen tulokset ovat paljon luotettavampia kuin neurotieteen, otosten ollessa tyypillisesti isoja jolloin saadaan tutkimukselle tilastollista voimaa. Laitetaan tähän lainaus tuosta ensimmäisestä linkistä:

A major factor that influences the reliability of science is statistical power. We cannot measure everyone or everything, so we take samples and use statistical inference to determine the probability that the results we observe in our sample reflect some underlying scientific truth. Statistical power determines whether we accurately conclude if there is an effect or not.

Statistical power is the ability of a study to detect an effect (eg higher rates of cancer in smokers) given that an effect actually exists (smoking actually is associated with increased risk of cancer). Power is related to the size of the study sample (the number of smokers and non-smokers we test) and the size of the real effect (the magnitude of the increased risk associated with smoking). Larger studies have more power and can detect smaller, more subtle effects. Small studies have lower power and can only detect larger effects reliably.

PSI-tulokset eivät sen vuoksi selity sattumalla, päinvastoin kuin neurotieteen tulokset ovat usein silkkaa sattumaa. Keskustelua PSI-kentällä käydäänkin vain siitä, selittyvätkö tulokset todellisella tietoisuuden vaikutuksella vaiko vain valikoivalla julkaisemisella.

Paljonkohan noista neurotieteen tuloksista muuten mahtaa selittyä valikoivalla julkaisemisella? Sitäkään ei ole selvitetty. Toistaiseksi on kiinnitetty huomiota vain otosten pienuuteen.

Jaa, eipäs sittenkään; onhan tuolla ekassa linkissä edelleen kiinnitetty siihenkin huomiota:

Editors are more likely to publish positive results, so researchers often file negative (i.e., null) findings in a drawer and forget about them. We've seen that small studies can only ever detect large effects and that low power increases the likelihood of spurious or chance findings, especially in exploratory studies. Couple this with a publication bias in favour of large, novel effects, and the implications for the reliability of the research literature is clear.

Jutun kirjoittaja on aidosti huolestunut valikoivasta julkaisemisesta neurotieteissä (ja tietenkin tieteissä yleisemminkin):

Although issues of publication bias are difficult to solve overnight, researchers can improve the reliability of their research by adopting well-established (but often ignored) scientific principles:

We can consider statistical power in the design of our studies, and in the interpretation of our results. We can increase the honesty with which we disclose our methods and results. We could make our study protocols, and analysis plans, and even our data, publicly available. We could work collaboratively to pool resources and increase our sample sizes and power to replicate findings.

Tästä voi olla samaa mieltä hänen kanssaan. Oikeastaan tulisi säätää tiedelaki, joka säätäisi pakolliseksi tallettaa kaikki tehdyt tutkimukset johonkin tietokantaan, johon kaikilla on vapaa pääsy (julkinen tiede). Myös nollatulokset ja negatiiviset tulokset näkyisivät silloin kaikille. Näin meta-analyysien teko tulisi helpoksi, ja publication bias / file drawer effectiä ei voisi esiintyä. Tietenkään koetulosten tehtailun ja valikoivan talletuksen mahdollisuutta sekään ei poista, eli varsinaisen tieteellisen vilpin mahdollisuutta. Mutta on kuitenkin jo eri asia syyttää tutkijoita tulosten väärentämisestä kuin selittää meta-analyysien tuloksia tutkimusten valikoivalla julkaisemisella.

Kirjekuori
Seuraa 
Viestejä2144
Liittynyt27.5.2010

Lisäys edelliseen:

Koska Japetuksen väitteet pohjautuvat neurotieteen tuloksiin, ja neurotiede itsessään on niin epäluotettava, ovat myös Japetuksen väitteet tavattoman epäluotettavia.

Ihan siis silloinkin kun Japetus ei tarkoituksella vääristele mitään, vaan ihan vain vilpittömästi neurotieteen tutkimustuloksiin uskoen siteeraa niitä epäluotettavia tuloksia.

jogger
Seuraa 
Viestejä2936
Liittynyt28.8.2011
Kirjekuori
Lisäys edelliseen:

Koska Japetuksen väitteet pohjautuvat neurotieteen tuloksiin, ja neurotiede itsessään on niin epäluotettava, ovat myös Japetuksen väitteet tavattoman epäluotettavia.

Ihan siis silloinkin kun Japetus ei tarkoituksella vääristele mitään, vaan ihan vain vilpittömästi neurotieteen tutkimustuloksiin uskoen siteeraa niitä epäluotettavia tuloksia.


Trolololol... Taidat tehdä näitä aiheita vain trollaaksesi Japetus:ta?

Foorumin salainen sääntö #1: Pienellä alkukirjaimella kirjoitetut aiheet lukitaan.
Foorumin salainen sääntö #2: Älä kerro kenellekään säännöstä #1 tai tulee bannit!

Kirjekuori
Otsikoksi kaavailin alunperin "Tietoisuuden suora vaikutus aivojen ulkopuoliseen materiaan (PSI)", mutta se ei mahtunut otsikkokenttään. Suoralla vaikutuksella tarkoitan sellaista vaikutusta, jossa vaikutus ei ole aivotoiminnan aiheuttaman ruumiinliikkeen seurausta. Epäsuoria vaikutuksiahan havaitsemme tietoisuudellamme olevan aivojen ulkopuoliseen materiaan joka päivä, olettaen että esimerkiksi keilaradalla tietoisuudellamme on "jokin osuus" kuulan heittämiseen, suuntaamiseen ja siten välillisesti keilojen kaatumiseen. Tai vaikkapa käden heiluttamiseen kasvojemme edessä.

En näe kehon liikkeissä tietoisuudella mitään materian ulkopuolista vaikutusta (PSI). Näen vain vuorovaikutusten aiheuttaman fysikaalisen tapahtumaketjun, joka johtaa ajatteluun ja päätökseen aivoissa tapahtuvina fysikaalisina muutoksena, sekä tästä vuorovaikutusketjun kautta seuraavana liikkeenä, jos hermojärjestelmä toimii ja aivotoiminta tähän johtaa.

Kirjekuori
Seuraa 
Viestejä2144
Liittynyt27.5.2010
Ulmas
Kirjekuori
Otsikoksi kaavailin alunperin "Tietoisuuden suora vaikutus aivojen ulkopuoliseen materiaan (PSI)", mutta se ei mahtunut otsikkokenttään. Suoralla vaikutuksella tarkoitan sellaista vaikutusta, jossa vaikutus ei ole aivotoiminnan aiheuttaman ruumiinliikkeen seurausta. Epäsuoria vaikutuksiahan havaitsemme tietoisuudellamme olevan aivojen ulkopuoliseen materiaan joka päivä, olettaen että esimerkiksi keilaradalla tietoisuudellamme on "jokin osuus" kuulan heittämiseen, suuntaamiseen ja siten välillisesti keilojen kaatumiseen. Tai vaikkapa käden heiluttamiseen kasvojemme edessä.

En näe kehon liikkeissä tietoisuudella mitään materian ulkopuolista vaikutusta (PSI). Näen vain vuorovaikutusten aiheuttaman fysikaalisen tapahtumaketjun, joka johtaa ajatteluun ja päätökseen aivoissa tapahtuvina fysikaalisina muutoksena, sekä tästä vuorovaikutusketjun kautta seuraavana liikkeenä, jos hermojärjestelmä toimii ja aivotoiminta tähän johtaa.

Kehon liikkeiden kautta välittyvää vaikutusta en nimittänytkään PSI:ksi, vaan ainostaan sellaista vaikutusta, johon ruumiinliikkeet eivät ole osallisia.

Kirjekuori
Seuraa 
Viestejä2144
Liittynyt27.5.2010

Katsotaanpas mitä erilaiset tiedon määritelmät suhtautuvat neurotieteisiin: Saammeko neurotieteen kautta tietoa?

http://plato.stanford.edu/entries/knowl ... oJusTruBel

*Klassisen tiedonmääritelmän mukaan asia on siinä rajamailla:

S knows that p iff

i. p is true;
ii. S believes that p;
iii. S is justified in believing that p.

On melko lailla rajamailla, oikeuttavatko neurotieteen tulokset uskomaan niitä, ellei muita perusteita uskomukselle ole kuin se neurotieteellinen tutkimus.

*Luotettavuusteorioiden mukaan neurotieteen tulokset eivät ole tietoa:

http://plato.stanford.edu/entries/knowl ... #RelTheKno

Simple K-Reliabilism:

S knows that p iff

i. p is true;
ii. S believes that p;
iii. S's belief that p was produced by a [size=150:2l00d50p]reliable[/size:2l00d50p] cognitive process.

Todetkaan uskomukset neurotieteissä eivät ole tietoa, koska ehto iii
- prosessin luotettavuus - ei toteudu.

HuuHaata
Seuraa 
Viestejä6527
Liittynyt8.11.2012

Pari huomiota:
1) Ensimmäisestä viestistä: (z=-4.36, p=6·10^-6)

http://en.wikipedia.org/wiki/P-value

In statistical significance testing the p-value is the probability of obtaining a test statistic at least as extreme as the one that was actually observed, assuming that the null hypothesis is true. One often "rejects the null hypothesis" when the p-value is less than the predetermined significance level which is often 0.05 or 0.01

Monia tieteenaloja voi syyttää siitä, että kokeissa saavutetaan liian epävarmoja tuloksia. p=6·10^-6 kuuluu mielestäni jo alueeseen, jossa luultavimmin mahdollisiksi virhelähteiksi löydetään moni muu asia todennäköisemmin kuin liian pieni toistojen määrä.

2) Oudot, epämiellyttävät tai pelottavatkin koetulokset ovat yhä koetuloksia. Kokeellisen tieteen tulokset tehdään testaamalla hypoteesejä. Teorioiden tai arkijärjen vastaisuus ei tee tieteestä huonoa -- päinvastoin.

3) Tieteessä olisi toivottavaa, että samalla innolla jolla käydään PSI kokeita vastaan käytäisiin myös tieteenalojen muuta tutkimusta vastaan. Eli, pyrittäisiin aktiivisesti repimään alas väitteet kääntelemällä kaikki pienetkin kivet koetulosten alta, jotka voisivat olla mahdollisia virhelähteitä.

4) PSI tutkimuksessa tarvittaisiin yksi yksikäsitteinen mahdollisemman helposti ymmärrettävä ja helposti toistettavissa oleva koe. Ilman tälläistä koetta laajaa tiedekentän, tai maallikkojen hyväksyntää koetuloksille on turhaa edes yrittää hakea.

Japetus
Seuraa 
Viestejä11158
Liittynyt20.6.2009
Kirjekuori
Jottei totuus unohtuisi, katsotaanpa mikä on neurotieteen tilanne tieteenalana luotettavuutensa suhteen. Eipä ole häävi, vaan sen surkea tilanne epäluotettavana tieteenä on aiheuttanut viime aikoina laajaa hämmennystä.

Tietysti se on hieman le kákaisen lemmenluolasi seiniä vavistellut, mutta koetahan nyt joskus nauttia edes vähän suhteellisuutta kaiken tekopyhyytesi kanssa.

PSI-tutkimuksessahan efektit ovat tyypillisesti pieniä mutta otokset kuitenkin isoja, minkä vuoksi poikkeamat nollahypoteesistä voidaan tilastollisesti luotettavalla tavalla osoittaa. Laajoissa meta-analyyseissä p on usein luokkaa 10^-6 tai jopa 10^-9, tarkoittaen että sattuma selityksenä voisi olla tulosten syynä ehkä vain todennäköisyydellä 1/miljoona,

Ei ollenkaan aina, ja koska tulokset vuohentuijottelussa ovat niin julmetun heikkoja, että niiden merkittävyyttä voidaan epäillä. Jopa hihhulismin promoottorit myöntävät, että on kiistanalaista, mihin asti havaintoja edes voidaan ottaa vakavasti:

http://citeseerx.ist.psu.edu/viewdoc/do ... 1&type=pdf

We agree with Wilson and Shadish (2006) that there is an unresolved problem regarding the point at which an effect is so small that it no longer warrants consideration as a genuine effect, but it was not our aim, nor is it our position, to resolve this issue, interesting and important as it is.

Erityisesti kaikki korrelaatio mielentilojen, meditaation ja kaiken maailman halinalleuden välillä on tyystin mahdoton tehtävä (kuten jo yllä sanottukin):

Moreover, in practical terms, in RNG experiments, the signaltonoise ratio, or the reliability of the effect, is so small that one cannot reasonably expect to find systematic correlations with, for example, psychological state or trait variables (Boller & Bösch, 2000).

Haamutulosten surkea toistettavuus ja puutteelliset kriteerit myös tummentavat varjoa alan tulosten yllä. Vilppiä on paljon ja sitä on helppo saada läpi. Tuloksissa myös on selvä trendi kohti pienempää vaikutuskokoa mitä suuremmista kokeista on kyse. Tämä on aivan päivänselvä indikaattori siitä, että kyseessä ei ole aito vaikutus.

tai 1/miljardi. Neurotieteessä sen sijaan otokset ovat tavattoman pieniä, sekä usein myös efektitkin, vaikka efektit ovatkin toki isompia kuin PSI-tutkimuksissa. Etenkin otosten pienuuden vuoksi neurotieteen luotettavuus kokeellisena tieteenalana kärsii. Tämän vuoden keväällä asiaan on kiinnitetty ansaitusti oikein kunnolla huomiota. Neurotiede on saanut lehdistössä pääosin murskaavan tuomion osakseen; sen luotettavuus tieteenalana on kuuluvasti ja asiaankuuluvasti kyseenalaistettu.

Ei jumaliste, mikä idiootti voitkaan kaiken le kákasi takana olla. Ihanko nyt taas totta? Pääosin murskaavan? Alalla on loputon määrä tieteellisiä ja populaaritieteellisiä julkaisuja - sanomalehtijutuista nyt puhumattakaan. Vaikka mitään ongelmaa ei tietenkään ratkaista lehdistössä, ei neurotieteen käsittely poikkea mistään muusta tieteenalasta. Aina on joku bloggari ja vilosoovi, joka ei tykkää. Montakohan nettikitisijää väittää suhteellisuusteorian olevan hanurista? Tai evoluutio? Jumaliste, sehän vasta onkin murskattu lehdistössä. Katsohan nyt:

http://www.ucg.org/science/prove-evolut ... out-bible/

[size=150:3vzgih0h]Prove Evolution Is False - Even Without the Bible[/size:3vzgih0h]

Kato sitä, ihan ilman Raamattua!

http://scienceagainstevolution.info/v13i8f.htm

[size=150:3vzgih0h]Why Evolution is False[/size:3vzgih0h]

Näitä voisi kasata loputtomiin, mutta jätän tähän. Pointti on jo silläkin selvä. Teet itse aivan samaa samoista uskonnollisista syistä: lappaat jatkuvasti pöydälle biasoitunutta kuonaa, jonka todistusarvo on tasan nolla. Se voidaan nähdä paitsi tarkan analyysin avulla myös ihan käytännössä. Haamuilu ei ole koskaan tuottanut ainuttakaan vaikutusta yhtään mihinkään. Kasperivaikutuksia on yritetty tuottaa maailman sivu; paljon kauemmin kuin tiede on edes ollut edes alkeellisesti järjestäytyneessä muodossaan olemassa. Sillä oli tilaisuutensa loistaa, mutta joka jumalan kerta se on surkeasti epäonnistunut. Hihhulismin mahtiajat perustuivat pelotteluun, pakottamiseen ja aivopesuun, eivät meriitteihin. Verrataanpa tätä sitten neurotieteeseen. Alaa ei varsinaisesti ollut olemassakaan ennen viime vuosisataa, mutta listaa sen meriiteistä ei voi kiistää. Kaikki mielenterveyden häiriöiden ja muiden aivosairauksien hoito perustuu nykyään neurotieteelliseen tutkimukseen - sanan laajassa merkityksessä käsittäen neurobiologian, -psykologian, -fysiologian jne.
Toimivat sovellukset robotiikkaan, pedagogiikkaan, taloustieteisiin ym. ovat myös oma etunsa. Paras todiste alan pätevyydestä on aivan sama kuin muunkin tieteen kohdalla: it works, bitches.

PSI-tulokset eivät sen vuoksi selity sattumalla, päinvastoin kuin neurotieteen tulokset ovat usein silkkaa sattumaa. Keskustelua PSI-kentällä käydäänkin vain siitä, selittyvätkö tulokset todellisella tietoisuuden vaikutuksella vaiko vain valikoivalla julkaisemisella.

Aivan täyttä roskaa. Ihan ensinnä koko hihhulitoiminnan piiri on niin pieni, ettei mitään kunnon keskustelua edes saada aikaan. Oikeita tieteilijöitä ei moinen kuona tyypillisesti kiinnosta sitten alkuunkaan - ja ihan hyvällä syyllä. Tämän pienen piirin keskuudessa suurin kiista tietysti on siitä, onko mitään vaikutusta ylipäätään olemassa, kuten jo yltä käy ilmi. Bösch ja kollegansa hyvin osoittivat vuohentuijotuskentän tulosten selittyvän parhaiten julkaisubiasilla, vaikka tulokset oletettaisiinkin päteviksi.

Paljonkohan noista neurotieteen tuloksista muuten mahtaa selittyä valikoivalla julkaisemisella? Sitäkään ei ole selvitetty. Toistaiseksi on kiinnitetty huomiota vain otosten pienuuteen.

Otosten pienuus ei ole ongelma, jos vaikutuksen voidaan osoittaa säilyvän myös laajemmassa tutkimuksessa - mihin vuohentuijottelu juuri kaatui. Julkaisubiasista en tiedä. Ala on niin laaja, että sitä olisi vaikea tarkasti selvittääkään.

Jaa, eipäs sittenkään; onhan tuolla ekassa linkissä edelleen kiinnitetty siihenkin huomiota:

Editors are more likely to publish positive results, so researchers often file negative (i.e., null) findings in a drawer and forget about them. We've seen that small studies can only ever detect large effects and that low power increases the likelihood of spurious or chance findings, especially in exploratory studies. Couple this with a publication bias in favour of large, novel effects, and the implications for the reliability of the research literature is clear.


Ja taas kerran tekopyhyytesi paistaa läpi, jotta melkein häikäisee. Toisaalta voit olla liian vajaa nähdäksesi asiaa, mutta tuo spekulaatio julkaisubiasista ja reliabiliteetista perustuu juuri ilmiöön, jonka vuohentuijotuksissa osoitettiin pätevän: vaikutus katoaa suurempiin tutkimuksiin mentäessä. Jos tuo spekulaatio jo käy mielessäsi neurotiedettä vastaan, tulisi pässinmulkkauksen olla ihan witun kusessa. Tämä ei ole aivan yhtä ilmeinen asia kuin tyypilliset tuplastandardisi ilmentymät, joten saat sen tämän kerran tyhmyytesi piikkiin. Mutta nyt tiedät paremmin, ja voit korjata sen ensi kertaa varten.

Jutun kirjoittaja on aidosti huolestunut valikoivasta julkaisemisesta neurotieteissä (ja tietenkin tieteissä yleisemminkin):

Haamututkimukseen vilkaisu veisi varmasti sairaalaan, mikäli hän sen tieteeksi lukisi.

Although issues of publication bias are difficult to solve overnight, researchers can improve the reliability of their research by adopting well-established (but often ignored) scientific principles:

We can consider statistical power in the design of our studies, and in the interpretation of our results. We can increase the honesty with which we disclose our methods and results. We could make our study protocols, and analysis plans, and even our data, publicly available. We could work collaboratively to pool resources and increase our sample sizes and power to replicate findings.

Tästä voi olla samaa mieltä hänen kanssaan. Oikeastaan tulisi säätää tiedelaki, joka säätäisi pakolliseksi tallettaa kaikki tehdyt tutkimukset johonkin tietokantaan, johon kaikilla on vapaa pääsy (julkinen tiede). Myös nollatulokset ja negatiiviset tulokset näkyisivät silloin kaikille. Näin meta-analyysien teko tulisi helpoksi, ja publication bias / file drawer effectiä ei voisi esiintyä. Tietenkään koetulosten tehtailun ja valikoivan talletuksen mahdollisuutta sekään ei poista, eli varsinaisen tieteellisen vilpin mahdollisuutta. Mutta on kuitenkin jo eri asia syyttää tutkijoita tulosten väärentämisestä kuin selittää meta-analyysien tuloksia tutkimusten valikoivalla julkaisemisella.


Ja arvaapa taas, missä tuo tilanne on vertaisarvion puutteiden vuoksi kaikkein heikoin? Tyypillisesti pätemättömät havainnot tulevat tieteessä julki ennemmin tai myöhemmin, mutta haamulassa toistettavuus ja validiteetti ovat niin pahasti kuralla muutenkin, ettei perinteisistä korjausmekanismeista paljon avuksi ole.

Olli S. paljastaa salaisuutensa: "Mä puhun tahallani ristiin, että Japetus saisi oikeita aiheita syyttää mua."
o_turusen jännä fetissi: "Minä en todellakaan kuse housuuni vaan sinun silmääsi."
sääpeikolla leikkaa: "No ihmisen vaikutus ei ole alle 50% ja ei ole alle 50%.. eiköhän se olisi silloin 50-50 suurimman osan mukaan papereista... näin nopeasti pääteltynä"
Keijona ymmärtää naisia: "Onkohan sellaista munasolua edes olemassa ? Onko joku nähnyt sellaisen?"

Japetus
Seuraa 
Viestejä11158
Liittynyt20.6.2009
Kirjekuori
Lisäys edelliseen:

Koska Japetuksen väitteet pohjautuvat neurotieteen tuloksiin, ja neurotiede itsessään on niin epäluotettava, ovat myös Japetuksen väitteet tavattoman epäluotettavia.

Ihan siis silloinkin kun Japetus ei tarkoituksella vääristele mitään, vaan ihan vain vilpittömästi neurotieteen tutkimustuloksiin uskoen siteeraa niitä epäluotettavia tuloksia.


Kukahan taas on vääristellyt tästäkin epäluotettavuudesta edellä? Ei sillä, että kukaan edes uskoisi kokonaisen valtatieteenalan olevan epäluotettava, mutta pisteet vääristelystä menevät silti ihan omaan laariisi le kákaisen herkkukuorrutuksen päälle. Mukaan lukien vielä kaikki ilmeiset tekopyhyytesi hetelmät, saadaankin jo aika kakku leivottua. Voisit kyllä jo aivan suosiolla painua wittuun hihhuloimasta. Tämän kun edelleen pitäisi olla tieteellisen keskustelun eikä katkeran haamujankutuksen areena.

Olli S. paljastaa salaisuutensa: "Mä puhun tahallani ristiin, että Japetus saisi oikeita aiheita syyttää mua."
o_turusen jännä fetissi: "Minä en todellakaan kuse housuuni vaan sinun silmääsi."
sääpeikolla leikkaa: "No ihmisen vaikutus ei ole alle 50% ja ei ole alle 50%.. eiköhän se olisi silloin 50-50 suurimman osan mukaan papereista... näin nopeasti pääteltynä"
Keijona ymmärtää naisia: "Onkohan sellaista munasolua edes olemassa ? Onko joku nähnyt sellaisen?"

Sivut

Suosituimmat

Uusimmat

Uusimmat

Suosituimmat