golos_dobra (golos_dobra) wrote,
golos_dobra
golos_dobra

современная наука равна полному хламу

https://www.nytimes.com/2017/10/18/magazine/when-the-revolution-came-for-amy-cuddy.html

The study impressed not only Cuddy’s colleagues — it was published in the prestigious journal Psychological Science — but also CNN, Oprah magazine and, inevitably, someone at the TED conference, which invited Cuddy to speak in 2012.

The video is now TED’s second-most popular, having been seen, to date, by some 43 million viewers. In the years after the talk, Cuddy became a sought-after speaker, a quasi celebrity and, eventually, the author of a best-selling book, “Presence,” in 2015.

...

In August 2014, the day before her second marriage, Amy Cuddy learned that a replication of her 2010 study led by a 34-year-old economist at the University of Zurich named Eva Ranehill had failed to yield the same results.

...

Cuddy felt ill when Simmons and Simonsohn published the post with the headline: “Reassessing the Evidence Behind the Most Popular TED Talk.” As illustration, they used a picture of Wonder Woman.


...

Four months after the Data Colada post, Gelman, with a co-author, published an article in Slate about Carney and Cuddy’s 2010 study, calling it “tabloid fodder.” Eventually, Cuddy’s name began appearing regularly in the blog, both in his posts and in comments.


At conferences, in classrooms and on social media, fellow academics (or commenters on their sites) have savaged not just Cuddy’s work but also her career, her income, her ambition, even her intelligence, sometimes with evident malice. Last spring, she quietly left her tenure-track job at Harvard.

+++

Само движение за переоценку результатов массовой научной фальсификации, поразившей
все практически био- социо- и так далее науки было зачато лет пятнадцать назад бывшими коллегами,
в основном со скрытой поддержкой грантодающих организаций, которым уже просто орать публично
хочется какой хлам они вынуждены поддерживать, не получая никаких реально результатов в итоге -
само собой речь идет о дарпе, ввс и прочих грантодателях с жестокой проверкой получаемого за гранты.

На пальцах объясню, объяснение нетривиальное и основано на довольно уникальной инсайд информации.

Дело в том что наука по большому счету в полном тупике и сколько денег туда не влагай,
все равно получишь никакую отдачу. Ну действительно, больше денег значит просто больше
скорости таранить этот безнадежный тупик, а толку?

Что взамен придумали люди делать?
А очень просто, тут начинает работать тривиальный закон статистики - чем меньше образец
для исследований под разного рода стохастическими и прочими шоками, тем больше
вероятность найти какое-то на первый взгляд СУЩЕСТВЕННОЕ отклонение просто из-за
чистого шума, подобрать закономерность там где просто НЕТ СИГНАЛА.

И вот тут биопсихология и прочая нейросайнс начинает изгаляться буквально кто как может,
вытягивая бесчестными и просто ошибочно примененными статистическими методами
(как в случае пренебрежения эффектами пространственной корреляции) высокую якобы
статистическую значимость.

То есть в реале поскольку наука в тупике никакого сигнала нет и быть не может, но можно
так посчитать статистику на малых образцах, чтобы представить полученный шум за
новое ОТКРЫТИЕ, хотя это в чистом виде фальшивый позитив.

Поэтому да, коллеги когда-то по первому проходу по научной литературе нашли что порядка
60-70 процентов всех ОПУБЛИКОВАННЫХ работ чистый хлам, позже там осталось порядка
восьми процентов которые нельзя классифицировать как шум, но которые содержат
просто тривиальные результаты, которые уж точно не выведут их авторов в круг
выступающих на ТЕДе и прочей телеманны.

То есть да, все что печатается, и особенно массово тиражируется пиар машинами
университетов является либо научной фальсификацией, либо просто тривиально.

Исключений просто практически нет.
Настоящие ученые изгнаны из академии или загнаны в подвалы подальше от публичного внимания,
популярны и известны только полные шарлатаны либо
твердящие заученные темы десятилетия подряд
идеологи от власти и денег.

Доп. литература по теме:

http://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0020124

Why Most Published Research Findings Are False
John P. A. Ioannidis

https://www.frontiersin.org/articles/10.3389/fnhum.2017.00390/full
Front. Hum. Neurosci., 03 August 2017 | https://doi.org/10.3389/fnhum.2017.00390
When Null Hypothesis Significance Testing Is Unsuitable for Research: A Reassessment

Denes Szucs and John P. A. Ioannidis



The ASA's Statement on p-Values: Context, Process, and Purpose
Ronald L. Wasserstein & Nicole A. Lazar
Pages 129-133 | Accepted author version posted online: 07 Mar 2016, Published online: 09 Jun 2016
Download citation http://dx.doi.org/10.1080/00031305.2016.1154108

Cherry-picking promising findings, also known by such terms as data dredging, significance chasing, significance questing, selective inference, and “p-hacking,” leads to a spurious excess of statistically significant results in the published literature and should be vigorously avoided
. One need not formally carry out multiple statistical tests for this problem to arise: Whenever a researcher chooses what to present based on statistical results, valid interpretation of those results is severely compromised if the reader is not informed of the choice and its basis. Researchers should disclose the number of hypotheses explored during the study, all data collection decisions, all statistical analyses conducted, and all p-values computed.


In view of the prevalent misuses of and misconceptions concerning p-values, some statisticians prefer to supplement or even replace p-values with other approaches. These include methods that emphasize estimation over testing, such as confidence, credibility, or prediction intervals; Bayesian methods; alternative measures of evidence, such as likelihood ratios or Bayes Factors; and other approaches such as decision-theoretic modeling and false discovery rates.
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 22 comments