Podría ser difícil de entender para lectores interesados en el tema.
Este aviso fue puesto el 14 de febrero de 2018.
La crisis de replicación (o crisis de replicabilidad o crisis de reproducibilidad) se refiere a una crisis metodológica en las ciencias causada por las dificultades encontradas por los investigadores para replicar los resultados de muchos de los experimentos científicos en investigaciones posteriores, bien por investigadores independientes o bien por los investigadores originales de estos estudios.[2] Aunque la crisis ha estado presente a lo largo del tiempo, la frase fue acuñada a inicios de la década de 2010 como parte de una mayor concienciación sobre el problema. La crisis de replicación representa un tema de investigación importante en el campo de la metaciencia.
Considerando que la reproducibilidad de experimentos es una parte esencial del método científico, la incapacidad de replicar los estudios de otros investigadores tiene consecuencias potencialmente graves para muchos campos de la ciencia, lo que puede suponer el desmoronamiento de teorías significativas o que sean irreproducibles en su trabajo experimental.
La crisis de replicación ha sido particularmente discutida en psicología (y en particular, psicología social) y en medicina, donde se ha trabajado para reinvestigar resultados clásicos con el fin de determinar tanto la fiabilidad de los mismos, como, en caso de resultar inválidos, las razones del fracaso de la replicación.[3][4]
General
Según una encuesta realizada en 2016 a 1500 investigadores por la revista Nature, el 70% de ellos habían sido incapaces de reproducir al menos uno de los experimentos de otro científico (y el 50% no había logrado reproducir alguno de sus propios experimentos).
En 2009, el 2% de los científicos admitieron haber falsificado estudios al menos una vez y 14% admitieron saber personalmente de alguien que hubiera falsificado resultados. Estas malas prácticas han sido declaradas más frecuentemente por investigadores médicos que por otros.[6]
Medicina
Un análisis sobre 49 estudios médicos realizados entre 1990–2003 con más de 1000 citas mostró que en 45 de ellos se dice que la terapia estudiada era eficaz. Fuera de estos estudios, un 16% tenían resultados contradictorios con los subsiguientes estudios, un 16% presentó resultados aumentados sobre su efectividad y un 24% no pudo ser replicado.[7] La FDA (Food and Drug Administration) de Estados Unidos estima errores entre el 10% y el 20% de los estudios médicos entre 1977–1990.[8] En un artículo publicado en 2012, Glenn Begley, un asesor biotecnológico que trabaja en Amgen, y Lee Ellis, de la Universidad de Texas, argumentó que sólo el 11% de los preestudios de cáncer clínico podrían ser replicados.[9][10]
Un artículo de 2016 de John Ioannidis, Profesor de Medicina y de Investigación en Salud y política de la Universidad Stanford, argumentó sobre "por qué la mayor parte de la investigación clínica no es útil" ("Why Most Clinical Research Is Not Useful").[11] En el artículo, Ioannidis puso sobre la mesa algunos de los problemas y llamó a una reforma, aportando argumentos que permitieran realizar investigaciones clínicas útiles –un ejemplo era la necesidad de investigación en medicina centrada en el paciente (p. ej. en la forma del PCORI ) en vez de la práctica actual de, principalmente, prestar más atención a "las necesidades de médicos, investigadores y/o patrocinadores"–. Ioannidis es conocido por su énfasis en la ciencia en sí misma, desde su artículo publicado en 2005 "por qué la mayoría de los resultados publicados son falsos". ("Why Most Published Research Findings Are False")[1]
Psicología
Los fracasos de replicación no son únicos a la psicología y estos se han encontrado en todos los campos de la ciencia.[12] Aun así, varios factores se han combinado para poner a la psicología en el centro de la controversia, especialmente en el área de psicología social, a pesar de que otras áreas de la psicología como la psicología clínica también han sido implicadas.
En primer lugar, prácticas de búsqueda cuestionable (QRPs) han sido identificadas como denominador común en el campo. Tales prácticas, mientras no son intencionadamente fraudulentas, implican caer en un área gris de prácticas científicas aceptables o explotan la flexibilidad en recolección de datos, análisis, e información, a menudo en un esfuerzo para obtener un resultado deseado. Ejemplos de QRPs son la inclusión selectiva de información o publicación parcial de datos (informando solo algunos de las condiciones de estudio o medidas dependientes recogidas en una publicación), parada opcional (escogiendo cuándo parar la recolección de datos, a menudo basándose en la importancia estadística de las pruebas), redondear valores p (redondeando valores abajo a .05 para sugerir importancia estadística), efecto de "cajón del archivo"(omitir la publicación de ciertos datos), post-hoc storytelling (enmarcando análisis exploratorios como análisis confirmatorios), y manipulación de los valores más extremos (sacando los valores límite o dejándolos en un conjunto de datos para causar una prueba estadística significativa).[13][14][15][16] Una encuesta de encima 2,000 psicólogos indicaron que una mayoría de encuestadas admitió a utilizar al menos un QRP. Conclusiones positivas falsas, a menudo resultando de la presión para publicar o el sesgo de confirmación propia del autor, es una amenaza inherente en el campo, requiriendo un grado seguro de escepticismo en la parte de lectores.[17]
En segundo lugar, la psicología y la psicología social en particular, se ha encontrado en el centro de varios escándalos que implican francamente investigación fraudulenta, más notablemente se ha admitido fabricación de datos por Diederik Stapel[18] así como alegatos en contra otros. Aun así, la mayoría de los académicos reconocen aquel fraude es, quizás, la contribución menor a la crisis de replicación.
Tercero, varios efectos en ciencias psicológicas han sido encontrados como difíciles de replicar, incluso antes de la crisis de replicación actual. Por ejemplo, la revista científica Judgment and Decision Making ha publicado varios estudios sobre los años que falla en proporcionar soporte para la teoría del pensamiento inconsciente. Las replicaciones aparecen particularmente difíciles cuándo las pruebas de búsqueda son pre-registradas y la investigación conducida por grupos de investigación no involucrados afectan profundamente la teoría cuestionada.
Estos tres elementos juntos ha resultado en atención renovada para la replicación apoyada por Kahneman.[19] El escrutinio de muchos efectos ha mostrado que varias creencias de núcleo son duras de replicar. Una edición especial reciente de la revista la psicología Social se centró en estudios de replicación y aseguró que las creencias fueron encontradas como difíciles de replicar.[20] Una 2012 edición especial de las Perspectivas de revista en la ciencia Psicológica también centrada en los asuntos que varían de sesgo de publicación a null-aversión que contribuye a las crisis de replicación en psicología En 2015, el primer estudio empírico abierto de la reproducibilidad en Psicología fue publicado, llamado: Proyecto de Reproducibilidad.[21] Investigadores alrededor del mundo colaboraron para replicar 100 estudios empíricos de tres revistas de Psicología. Menos de la mitad de las replicaciones fueron exitosas en reproducir resultados estadísticos significativos en la dirección esperada, aunque la mayoría de las replicaciones produjeron tendencias en la dirección deseada.[22]
Índices de replicación en psicología
Un informe por la Colaboración de Ciencia Abierta en agosto de 2015 aquello estuvo coordinado por Brian Nosek estimó la reproducibilidad de 100 estudios en ciencia psicológica de tres alto-ranking revistas de psicología.[23] En general, 36% de las replicaciones cedieron hallazgos significativos (p valor abajo .05) comparó a 97% de los estudios originales que tuvo efectos significativos. La medida de efecto mala en las replicaciones era aproximadamente a medias la magnitud de los efectos informó en los estudios originales.
El mismo papel examinó los índices de reproducibilidad y medidas de efecto por la Revista de Personalidad y Psicología Social (JPSP), La revista de Psicología Experimental: Aprendizaje, Memoria, y Cognición (LMC), Ciencia Psicológica (PSCI) y disciplina (psicología social, psicología cognitiva). Índices de replicación del estudio eran 23% para JPSP, 38% para JEP:LMC, y 38% para PSCI. Estudios en el campo de psicología cognitiva tuvo un índice de replicación más alto (50%) que estudios en el campo de psicología social (25%).
Un análisis de la historia de publicación en la parte superior 100 revistas de psicología entre 1900 y 2012 indicó que aproximadamente 1.6% de todas publicaciones de psicología eran intentos de replicación . Los artículos estuvieron considerados un intento de replicación si la replicación "de plazo" aparecida en el texto. Un subconjunto de aquellos estudios (500 estudios) era aleatoriamente seleccionado para examen más lejano y cedió un índice de replicación más bajo de 1.07% (342 de los 500 estudios [68.4%] era de hecho replicaciones). En el subconjunto de 500 estudios, el análisis indicó que 78.9% de intentos de replicación publicada eran exitosos. El índice de replicación exitosa era significativamente más alto cuándo al menos un autor del estudio original era parte del intento de replicación (91.7% relativo a 64.6%).
Un dilema social
Destacando la estructura social que desalienta replicación en psicología, Brian D. Earp y Jim Un. C. Everett enumeraron cinco puntos explicando por qué los intentos de replicación son infrecuentes:[24][25]
"Las replicaciones directas e independientes de los hallazgos de otros pueden llevar mucho tiempo para el investigador que hace la replicación.
Es probable que las replicaciones roben energía y recursos directamente de otros proyectos que reflejan los pensamientos originales de uno mismo.
Son generalmente más duras de publicar (en gran parte porque están vistas como sin originalidad).
Incluso si son publicadas, es probable que sean vistas como ejercicios de 'albañilería', más que contribuciones importantes en el campo; y por tanto;
Dan menos reconocimiento y recompensa, e incluso seguridad básica de carrera, a sus autores"[26]
Por estas razones los autores defienden que la psicología está frente a un dilema social disciplinario, donde los intereses de la disciplina se contraponen con el interés del investigador individual.
Marketing
El marketing es otra disciplina con una "necesidad desesperada para replicación".[27] Además de argumentos anteriormente mencionados, el estudios de replicaciones en marketing están necesitados para examinar la aplicabilidad de teorías y modelos a través de países y culturas, el cual es especialmente importante debido a influencias posibles de globalización.[28]
Causas de la crisis
En un trabajo publicado en 2015 Glenn Begley y John Ioannidis ofrece cinco ideas fuerza cuando se resume este problemas:[29]
Generación de publicaciones y datos a un ritmo sin precedentes
Contrastando evidencia que para la mayoría de estos descubrimientos no serán persistentes en el tiempo.
Causas: fracaso de adherir a práctica científica buena y el desesperación por "publish or perish" publicar o perecer.
Esto es un fenómeno multifacetico y de múltiples partes involucradas.
Ninguna parte por sí sola es responsable, y ninguna solución única bastará.
De hecho algunas predicciones de una crisis posible en el mecanismo de control de la calidad de ciencia puede ser remontado varias décadas, especialmente entre becarios en ciencia y estudios de tecnología (STS). Derek de Solla Precio @– consideró el padre de scientometrics @– pronosticó que la ciencia podría lograr esenility' a raíz de su crecimiento exponencial propio.[30] Algunos literatura de día presente parece a vindicate esto 'desbordamiento' prophesy, lamenting en decadencia en ambas atención y calidad.[31][32]
Filósofo e historiador de Ciencia Jerome R. Ravetz Pronosticó en su 1971 libro conocimiento Científico y sus problemas sociales que ciencia @– en emotivo de la poca ciencia hecha de restringió comunidades de científicos a ciencia grande o techno-ciencia @– padecería problemas de primer orden en su sistema interno de control de calidad. Ravetz Anticipó que el sistema de la ciencia moderna del incentivo podría devenir dysfunctional (el presente 'publicar o perecer' reto). Para Ravetz la calidad en ciencia está mantenida cuándo hay una comunidad de los becarios enlazaron por normas y estándares, y una disposición para estar por estos.
Historiador Philip Mirowski ofreció más recientemente una diagnosis similar en su 2011 Ciencia de libro Mart (2011).[33] Soyarte' es aquí una referencia al gigante minorista 'Walmart' y una alusión al commodification de ciencia. En el análisis de Mirowski cuándo la ciencia deviene una mercancía siendo comerciado en un mercado sus derrumbamientos de calidad. Mirowski Argumenta su caso por localizar la decadencia de ciencia a la decisión de empresas importantes para cerrar su en laboratorios de casa para outsource su trabajo a universidades, y posteriormente para mover su búsqueda fuera de universidades a incluso organización de búsqueda de contrato más barata (CRO).
La crisis del sistema de control de la calidad de la ciencia está afectando el uso de ciencia para política. Esto es la tesis de un trabajo reciente por un grupo de investigadors STS, quiénes identifican en 'la política basada ( o informada) en evidencia' es un punto de tensión presente.[34][35]
Dirigiendo la crisis de replicación
La replicación ha sido referida a como "el piedra angular de ciencia".[36][37] Intento de estudios de la replicación para evaluar si publicó los resultados reflejan hallazgos ciertos o falsos positivos. La integridad de reproducibilidad y hallazgos científicos de búsqueda son importantes cuando forman la fundación de conocimiento en qué estudios futuros está construida.
Una innovación reciente en científico publicando para dirigir la crisis de replicación es a través del uso de registró informes.[38][39] El formato de informe registrado requiere autores para entregar una descripción de los métodos de estudio y análisis con anterioridad a colección de datos. Una vez el método y plan de análisis es vetted a través de peer-revisión, la publicación de los hallazgos es provisionalmente guaranteed, basó encima si los autores siguen el protocolo propuesto. Un objetivo de registró los informes es a circumvent el sesgo de publicación hacia hallazgos significativos que puede dirigir a implementación de QRPs y para animar publicación de estudios con métodos rigurosos.
Basado en coursework en métodos experimentales en MIT y Stanford, ha sido sugerido que cursos de métodos en psicología enfatizan intentos de replicación más que estudios originales.[40][41] Tal una aproximación ayudaría el alumnado aprende metodología científica y proporcionar replicaciones independientes numerosas de hallazgos científicos significativos que probaría el replicability de hallazgos científicos. Algunos han recomendado que los estudiantes de posgrado tendrían que ser requeridos para publicar un intento de replicación de calidad alta en un tema relacionó a su doctoral búsqueda con anterioridad a graduación.
Para mejorar la calidad de replicaciones, medidas de muestra más grande que aquellos utilizados en el estudio original es a menudo necesitó.[42] Medidas de muestra más grande están necesitadas porque estimaciones de medidas de efecto en trabajo publicado son a menudo exagerados debido a sesgo de publicación y variabilidad de muestreo grande asociada con medidas de muestra pequeña en un estudio original.[43][44][45]
Repositorios en línea donde datos, protocolos, y los hallazgos pueden ser almacenados y evaluados por el público busca para mejorar la integridad y reproducibilidad de búsqueda. Los ejemplos de tales repositorios incluyen el marco de ciencia abierto, http://www.re3data.org/, y www.psychfiledrawer.org. Sitios como oferta de Marco de Ciencia Abierta placas para utilizar prácticas de ciencia abierta en un esfuerzo a incentivize científicos. Aun así, ha habido preocupación que quienes son más probablemente para proporcionar su dato y el código para análisis es los investigadores que probablemente puede el más sofisticado.[46] John Ioannidis en Stanford la universidad sugirió que "la paradoja puede surgir que el más meticulous y sofisticado y método-savvy y los investigadores prudentes pueden devenir más susceptibles a crítica y ataques de reputación por reanalyzers quiénes cazan para errores, ningún asunto cómo insignificante estos errores son".
La revista la ciencia Psicológica ha animado el preregistration de estudios y el informando de medidas de efecto e intervalos de confianza.[47] El editor en el jefe también notó que la redacción será pedir replicación de estudios con hallazgos sorprendentes de los exámenes que utilizan medidas de muestra pequeña antes de dejar los manuscritos para ser publicados.
En julio de 2016 el Netherlands la organización para Búsqueda Científica hizo 3 millones de Euros disponibles para estudios de replicación. La financiación es para la replicación basada en reanalysis de existir dato y replicación por recoger y analizando dato nuevo. La financiación es disponible en las áreas de ciencias sociales, búsqueda de salud y healthcare innovación.[48]
En 2013 la Laura y Fundación de Arnold del John financiaron el lanzamiento del Centro para Ciencia Abierta con un $5.25 millones de subvención y por 2017 había proporcionado un adicional $10 millones en financiar.[49] También financie el lanzamiento del Meta-Centro de Innovación de la Búsqueda en Stanford en Stanford la universidad corrida por John Ioannidis y Steven Goodman para estudiar maneras de mejorar búsqueda científica. Él financiación proporcionada también para el AllTrials la iniciativa dirigida en parte por Ben Goldacre.
↑«Reproducibility in Science: Improving the Standard for Basic and Preclinical Research». Circulation Research116 (1): 116-126. 2015. PMID25552691. doi:10.1161/CIRCRESAHA.114.303819.
Bonett, DG (2012) Replicación-estudios de extensión. Direcciones actuales en Psicología 21, 409-412.
La mayoría de estudios científicos son mal, pero aquello no significa qué piensas que significa - La Lógica de Ciencia
Artículo en La Conversación (sitio web) Ciencia en crisis: de la estafa de azúcar a Brexit, nuestra fe en expertas está apagándose, septiembre 26, 2016