Reproducibilidad y repetibilidad

La reproducibilidad es la capacidad de un ensayo o experimento de ser reproducido o replicado por otros, en particular, por la comunidad científica. La reproducibilidad es uno de los pilares del método científico, siendo la falsabilidad el otro.

La bomba de aire de Boyle, en el contexto del siglo XVII, era un aparato científico complicado y costoso, haciendo difícil la reproducción de sus resultados.

Aunque existen diferencias conceptuales según la disciplina científica,[1]​ en muchas disciplinas, sobre todo en aquellas que implican el uso de estadística y procesos computacionales,[2]​ se entiende que un estudio es reproducible si es posible recrear exactamente todos los resultados en la misma escala y a partir de los datos originales y el código informático empleado para los análisis.[3]​ Por el contrario, en este contexto, la repetibilidad se refiere a la posibilidad de obtener resultados consistentes al replicar un estudio con un conjunto distinto de datos, pero obtenidos siguiendo el mismo diseño experimental.[2][3]​ Así mismo, el término está estrechamente relacionado al concepto de testabilidad.

En años recientes, fracasos reiterados en la reproducción de experimentos han dado lugar a una crisis de replicación en varias ciencias.[4]

Reproducibilidad y falsabilidad editar

Dependiendo del campo científico particular,[cita requerida] la reproducibilidad puede requerir que la prueba o experimento sea falsable. Responde a que, a veces, los experimentadores pueden cometer errores sistemáticos durante sus investigaciones, desviándose inconscientemente del método científico y cayendo en ciencia patológica por varios motivos o, en raras ocasiones, informar conscientemente de falsos resultados.

Reproducibilidad en la práctica científica editar

Los resultados de un experimento llevado a cabo por un investigador o grupo de investigación particular son evaluados generalmente por otros investigadores independientes repitiendo el experimento original. Repiten el mismo experimento por sí mismos, basándose en la descripción del experimento original, y comprueban si su experimento tiene resultados similares a los comunicados por el grupo original. Se dice que los valores resultantes son conmensurables si se obtienen (en distintos procesos experimentales) de acuerdo con los mismos procedimientos experimentales descritos y reproducibles.

A los investigadores se les supone la práctica del archivo de datos científicos, cumpliendo así con las políticas de las revistas científicas y las agencias gubernamentales de subvención. El registro detallado de sus procedimientos experimentales, datos en bruto, análisis estadísticos y códigos fuente se conserva con la intención de suministrar pruebas de la efectividad e integridad del procedimiento y asistir en la reproducción. Estos registros de los procedimientos también pueden ayudar en la concepción de nuevos experimentos para comprobar las hipótesis, y pueden resultar útiles a los ingenieros que podrían examinar las aplicaciones prácticas en potencia de un descubrimiento cualquiera.

Cuando se requiere información adicional antes de que un estudio pueda ser reproducido, se espera que el autor del estudio lo proporcione con puntualidad. Si dicho autor se niega a intercambiar sus datos, se puede reclamar a los editores de las publicaciones que hicieron públicos los estudios o a las instituciones que subvencionan la investigación.
Más agencias de financiación de la investigación, instituciones, revistas y editoriales están introduciendo políticas que fomentan o requieren el intercambio de datos de investigación que respaldan las publicaciones. Las políticas de datos de investigación de revistas a menudo incluyen requisitos para que los investigadores proporcionen declaraciones de disponibilidad de datos (DAS). Los DAS también se conocen como declaraciones de accesibilidad de datos, declaraciones de intercambio de datos y declaraciones de "disponibilidad de datos de respaldo" y "disponibilidad de datos y materiales".[5]

Dado que resulta imposible para un científico registrar absolutamente todo lo que ocurre en un experimento, solo se informa de los hechos que pueden ser subjetivamente relevantes. Esto puede llevar, inevitablemente, a posteriores problemas si se cuestiona algo supuestamente irrelevante. Por ejemplo, Heinrich Hertz no informó del tamaño de la habitación que se usó para comprobar las ecuaciones de Maxwell, que posteriormente acabaron produciendo una ligera desviación en los resultados. El problema es que partes de la propia teoría tienen que ser asumidas para poder seleccionar e informar de las condiciones del experimento. Las observaciones, por tanto, son a veces tildadas de estar «cargadas de teoría».

Reproducibilidad en metrología editar

En metrología, y de forma particular en ingeniería, ciencia, industria y estadística, la reproducibilidad es la capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones a lo largo de periodos dilatados de tiempo. Esta cualidad debe evaluarse a largo plazo. Ésta es la gran diferencia con precisión que debe, en cambio, ser evaluada a corto plazo.

Crisis de replicación editar

 
John Ioannidis (2005), "Por qué muchos de los trabajos de investigación son falsos[6]

La crisis de replicación (o crisis de replicabilidad o crisis de reproducibilidad) se refiere a una crisis metodológica en las ciencias causada por las dificultades encontradas por los investigadores para replicar los resultados de muchos de los experimentos científicos en investigaciones posteriores, bien por investigadores independientes o bien por los investigadores originales de estos estudios.[7]​ Aunque la crisis ha estado presente a lo largo del tiempo, la frase fue acuñada a inicios de la década de 2010 como parte de una mayor concienciación sobre el problema. La crisis de replicación representa un tema de investigación importante en el campo de la metaciencia.

Considerando que la reproducibilidad de experimentos es una parte esencial del método científico, la incapacidad de replicar los estudios de otros investigadores tiene consecuencias potencialmente graves para muchos campos de la ciencia, lo que puede suponer el desmoronamiento de teorías significativas o que sean irreproducibles en su trabajo experimental.

La crisis de replicación ha sido particularmente discutida en psicología (y en particular, psicología social) y en medicina, donde se ha trabajado para reinvestigar resultados clásicos con el fin de determinar tanto la fiabilidad de los mismos, como, en caso de resultar inválidos, las razones del fracaso de la replicación.[8][9]

Véase también editar

Referencias editar

  1. Goodman, Steven N.; Fanelli, Daniele; Ioannidis, John P. A. (1 de junio de 2016). «What does research reproducibility mean?». Science Translational Medicine (en inglés) 8 (341): 341ps12-341ps12. ISSN 1946-6234. PMID 27252173. doi:10.1126/scitranslmed.aaf5027. Consultado el 12 de septiembre de 2017. 
  2. a b Patil, Prasad; Peng, Roger D.; Leek, Jeffrey (29 de julio de 2016). «A statistical definition for reproducibility and replicability». bioRxiv (en inglés): 066803. doi:10.1101/066803. Consultado el 12 de septiembre de 2017. 
  3. a b Rodriguez-Sanchez, Francisco; Pérez-Luque, Antonio Jesús; Bartomeus, Ignasi; Varela, Sara (16 de julio de 2016). «Ciencia reproducible: qué, por qué, cómo». Revista Ecosistemas 25 (2): 83-92. ISSN 1697-2473. doi:10.7818/ecos.2016.25-2.11. Consultado el 12 de septiembre de 2017. 
  4. Baker, Monya (26 de mayo de 2016). «1,500 scientists lift the lid on reproducibility». Nature News (en inglés) 533 (7604): 452. doi:10.1038/533452a. Consultado el 10 de agosto de 2019. 
  5. Colavizza G., Hrynaszkiewicz I., Staden I., Whitaker K., McGillivray B. (2020). «The citation advantage of linking publications to research data». PLOS ONE 15 (4): e0230416. doi:10.1371/journal.pone.0230416. 
  6. Ioannidis, JPA (2016). «Why Most Clinical Research Is Not Useful». PLoS Med 13 (6): e1002049. doi:10.1371/journal.pmed.1002049. 
  7. Schooler, J. W. (2014). «Metascience could rescue the 'replication crisis'». Nature 515 (7525): 9. doi:10.1038/515009a. 
  8. Gary Marcus (1 de mayo de 2013). «The Crisis in Social Psychology That Isn’t». The New Yorker. 
  9. Jonah Lehrer (13 de diciembre de 2010). «The Truth Wears Off». The New Yorker. 

Enlaces externos editar