domingo, 30 de agosto de 2015

Microscopio con un puntero láser

Uno de los experimentos más sencillos y alucinantes que se pueden hacer en casa es apuntar con un láser a una gota de agua y ver la imagen que se crea en una pared blanca tras la gota. La gota se puede generar fácilmente en la punta de una jeringuilla.

Si al agua está muy limpia se ven pocas cosas, lo bonito es que esté "sucia". Si no hay a mano agua de charco, estancada, se puede usar un poco de saliva. Por ejemplo mojar un palillo en saliva y tocar con el la gota. Entonces aparece todo un universo de manchas en la pared.

¿Cómo funciona todo esto, qué es lo que se ve?

Es una especie de microscopio que genera una imagen de las partículas microscópicas (bacterias, motas de polvo, etc.) que hay en la gota de agua. En los microscopios habituales, con lentes y todo eso, es muy difícil enfocar, hay que colocar las lentes a una distancia precisa de la muestra para poder ver algo enfocado. En cambio en nuestro experimento no importa que el láser se ponga más o menos lejos de la gota, ni lo lejos que esté la pared. En realidad de cada partícula no estamos viendo una imagen propiamente dicha sino un patrón de difracción generado por ella. Para entender qué es eso de un patrón de difracción, me ha encantado la figura siguiente. En ella se ve un frente de onda (las rayitas verdes de la izquierda) que llega a una esfera. la esfera hace sombra, pero sus bordes se convierten en emisores de luz, por el fenómeno de la difracción. Un poco más adelante (hacia la derecha), la luz que viene de un borde se encuentra con la de otro y comienza a interferir, en los puntos donde coinciden dos máximos hay luz más intensa, y dónde coinciden máximo y mínimo se anula la intensidad.

Ese patrón de máximos y mínimos se mantiene a medida que nos vamos hacia la derecha, haciéndose progresivamente mayor. Recordemos que esta figura representa un corte bidimensional, si imaginamos que lo giramos para obtener la figura que se proyecta realmente en la pantalla ¿que obtendremos? Obtendremos una serie de círculos concéntricos brillantes y oscuros alternados, justo lo que se ve en la foto inicial. Si la partícula es de una forma no  esférica, el patrón que observaremos tendrá esa forma, como si fuera una sombra solo que hecha de bandas brillantes y oscuras alternadas. Eso es el patrón de difracción. Ese patrón se ve nítido a cualquier distancia, más grande cuanto más lejos esté la pantalla de la gota, eso si.

No se si estos microscopios de difracción tienen alguna utilidad práctica seria, pero como divertimento doméstico resultan algo magnífico. Hace unos meses grabamos un vídeo en el que se ve lo fácil que se puede hacer (aunque admite muchas mejoras, claro, como fijar el láser por ejemplo, pero buscábamos la versión más simple).

lunes, 24 de agosto de 2015

La hora del reloj parado

Vuelves de unas semanas de vacaciones y te encuentras con el reloj de la cocina parado. Bueno, en realidad no está parado del todo, la aguja del segundero vibra, hace un esfuerzo por moverse una vez por segundo sin terminar de conseguirlo.

¿A qué hora se ha parado? A la que era esperable… o quizá no del todo.

Mover las manecillas de un reloj de pared cuesta energía pero no la misma a todas las horas. Entre la posición de las 12 y la de las 6 las agujas van cuesta abajo, la gravedad estira de ellas, con lo que el mecanismo no ha de hacer demasiado esfuerzo. Solo hay que mantenerlas frenadas para que vayan a la velocidad que toca. En cambio la otra mitad del recorrido es cuesta arriba. Pasar de las 6 hacia las 7 ya requiere vencer la gravedad, y cuanto más se avanza más esfuerzo hay que hacer. El máximo esfuerzo hay que hacerlo cuando el brazo de palanca es máximo en ese sector, en la posición de las 9.

Podemos suponer que todo el peso de la manecilla está concentrado en su centro de masas, que estará aproximadamente hacia la mitad de la longitud de la misma. La línea que va desde el eje del reloj hasta el centro de masas la podemos imaginar como la cuerda de un péndulo fijado en el eje. El péndulo va a querer oscilar hasta pararse lo más abajo posible: en la posición de las 6. Sin embargo no es ahí donde se han parado realmente las agujas. Claro,  es que el péndulo no es un buen modelo para el reloj de verdad.

Las manecillas están sujetas al eje y este va girando, accionado por el mecanismo, posicionando las agujas de forma que marquen la hora; al menos mientras tenga suficiente pila. Cuando la pila se agota las agujas no quedan libres de forma que puedan pendular hacia las 6, el mecanismo sigue enganchado.

En el eje del reloj se componen los momentos de las fuerzas que actúan. El momento de una fuerza es la magnitud física que describe la capacidad de giro que dicha fuerza ejerce sobre un determinado eje. Matemáticamente se calcula como el producto de la fuerza, por el brazo de palanca (la distancia del punto de aplicación de la fuerza al eje de giro) por el seno del ángulo que forman la fuerza y el brazo. Con esa definición matemática se ve enseguida cuando es máximo el momento del peso de la manecilla. Será cuando forme un ángulo recto con la propia manecilla (seno del ángulo recto vale 1, su máximo valor). Esto ocurre a las 3 y a las 9, en el primer caso a favor del sentido de giro de las agujas y en sentido contrario a las 9.

Cuando la manecilla está en las 9 en el eje está aplicado su máximo momento en sentido antihorario, y para que la manecilla se mueva el mecanismo tiene que aplicar uno, de sentido contrario, un poco mayor. Eso es lo que no consigue cuando la pila no suministra suficiente energía. Si tuvo suficiente para moverla cuando el momento a vencer era un poco menor, pero ya este valor ya no puede con él.
Con la explicación anterior podemos entender que una manecilla se quede parada en la posición de las 9 cuando el reloj agota la pila, pero en la foto se ve que las 3 manecillas se han parado ahí. ¿Es eso esperable o ha sido pura casualidad?

En el eje se compone el momento de los pesos de las tres manecillas y esa suma es la que ha de vencer el mecanismo. Sin duda la posición de todas las agujas a las 9 es la de máximo momento a vencer, o sea que, en términos absolutos, es lugar “natural” en el que debería pararse el reloj. Pero ese lugar natural (o “de equilibrio”) es el que esperamos alcanzar solo si la pila se va gastando muy muy despacito. La contribución de la aguja horaria al momento total, con lo poco que ha de moverse por segundo y lo corta que es, es muy pequeña, seguramente decenas o centenas de veces menor que las otras. Por tanto, el momento en que la pila ya no puede mover el segundero de las 9 podía haberle pillado a la aguja horaria a cualquier hora. En el caso del minutero, estamos en un caso intermedio, su contribución al momento total es menor que la del segundero pero no tan despreciable como la de la horaria.

En resumen, uno esperaría que un reloj de este tipo siempre se parase con el segundero a las 9, bastantes veces con el minutero también a las 9 y solo muy de vez en cuando con las tres agujas ahí, en la posición de máxima energía a vencer. Una bonita casualidad que sirvió para motivar esta reflexión.

---------
Esta misma entrada se publicó hace unos días en Naukas, y el sucesos es completamente verdadero.

sábado, 22 de agosto de 2015

Fraude científico (V). Resumen y conclusiones

Esta semana se publica una serie de 5 artículos sobre el fraude científico en el Cuaderno de Cultura Científica.También se publican en este blog un día más tarde.


Fraude científico (V). Resumen y conclusiones

El fraude científico existe, existe desde siempre y hay casos entre los científicos más famosos. Desde Ptolomeo hasta la actualidad, pasando por Mendel, Galileo o el hombre de Pitdown, los casos son innumerables. Y no son algunos casos anecdóticos, según estudios realizados entre el 66% y el 72% de los científicos admite realizar algún tipo de malas prácticas y uno de cada 50 admite falsificar o inventar resultados. Lamentablemente no existe un método científico normativo ni ninguna otra característica que proporcione criterios de demarcación definidos entre lo que es científico y lo que no lo es.

La idea de que la mayoría de los científicos son honestos y hay unas pocas manzanas podridas es demasiado simplista. Es necesario un modelo más elaborado que comienza por mostrar todo un continuo de comportamientos inadecuados en el que no es fácil colocar un umbral que delimite las manzanas sanas de las podridas. De hecho, y siguiendo los trabajos de Dan Ariely, podemos establecer la existencia de un umbral de deshonestidad aceptable tanto por el individuo como por la comunidad.

Se pueden identificar dos tipos de fraude: el movido por el deseo de descubrimiento (tipo 1) y el derivado de la presión profesional (tipo 2). En el primero el científico empuja progresivamente el umbral de lo aceptable, manteniendo una autopercepción de honorabilidad mientras que en el segundo se salta el umbral a conciencia. Contribuyen al de tipo 2, menos interesante intelectualmente, presiones externas como la necesidad de publicación e internas como la vanidad. El de tipo 1, más consustancial al avance científico, se produce cuando se explora sin éxito los bordes del paradigma vigente (en términos de Kuhn) e incluye la ciencia patológica.

El modelo propuesto se resume gráficamente en la figura 1, y esquemáticamente en los puntos siguientes:
 

·         El estado “honesto” de partida incluye un umbral de fraude aceptable (Ariely)
·         Hay dos formas (fundamentales) de fraude:
o   Tipo 1.- Empujar el umbral en pos de probar una idea
o   Tipo 2.- Saltarse el umbral en pos de méritos profesionales
·         El fraude tipo 2 es intelectualmente menos interesante. Tiene que ver con el equilibrio psicológico del individuo y con presiones externas.
·         En el fraude C1 se incurre al salir del entorno seguro del paradigma de Kuhn en busca de hipótesis revolucionarias.



Figura 1. Resumen esquemático del modelo propuesto para analizar el fraude. Los comportamientos cuestionables forman un continuo sin fronteras definidas en el que hay un umbral aceptable. Ese umbral se puede empujar o saltar dando lugar a dos tipos de fraude. Las prácticas cuestionables masivas están en el entorno del umbral aceptable, quedando un número mucho más reducido de auténticas manzanas podridas.



A la luz de este modelo podemos entender mejor los resultados de los estudios antes comentados. Las prácticas que aceptan llevar a cabo la mayoría de los científicos (recordemos, entre el 66% y el 72%) estarían en el entorno del umbral de lo aceptable. Cuando se pregunta por ellas expresamente se reconoce que no está bien, pero de alguna forma se asume que tampoco está tan mal y que “todo el mundo lo hace”, análogo a llevarse a casa un lápiz de la oficina. Las prácticas que son manifiestamente fraudulentas y conscientes, como inventar datos, afectan a números muy inferiores, compatibles con la idea de las (pocas) manzanas podridas.

La existencia de errores y fraudes en la investigación científica da lugar fundamentalmente a dos consecuencias: retracción de artículos e irreproducibilidad de resultados. El número de artículos retirados de las publicaciones, aunque es muy bajo, crece drásticamente desde el año 2000. Estudios recientes intentando reproducir resultados publicados, por ejemplo en psicología, muestran que en la gran mayoría de los casos los resultados no se consiguen reproducir. Este problema está lejos de ser anecdótico en bastantes disciplinas científicas.

Para el individuo que se dedica a ella, la ciencia es (o puede ser) una actitud vital y una profesión. Además, para la sociedad es un sector de actividad productiva, y en este último sentido la ciencia ha cambiado enormemente en las últimas décadas. En el período de 1996 a 2011 ha habido 20 millones de artículos escritos por 15 millones de autores (ref 1). La ciencia se ha convertido en una actividad de masas.

Las publicaciones científicas existen desde el siglo XVII, pero desde la generalización de internet se pueden consultar con una facilidad y en un número inimaginable hace tres décadas. Por otro lado, los distintos organismos financiadores de la investigación cada vez son más exigentes con los científicos a su servicio: con menos dinero hay que conseguir más publicaciones en menos tiempo. En mi opinión estas son las razones fundamentales que están detrás de la evolución al alza de las malas prácticas en ciencia que, como veíamos, están  aflorando aceleradamente.

La presión por publicar la sufren, de manera angustiosa en ocasiones, todos los miembros de la profesión. Esto hace que el colectivo sea más indulgente ante tamaños muestrales escasos, análisis estadísticos pobres, descripciones de la metodología poco claras, conflictos de intereses, etc. En resumen, el umbral de las prácticas aceptables se ha desplazado alejándose de la pulcritud de forma exagerada, en algunos casos al menos. Por otro lado, esa disminución de la calidad de lo publicado no pasa desapercibida ante el escrutinio de un número tan vasto de científicos como el que hoy día rastrea las bases de datos a la caza de ideas para sus próximos trabajos.

La presión por publicar desplazó el acento de la calidad a la cantidad. La presión por el índice de impacto parecía una forma ingeniosa de recuperar el nivel de calidad sin reducir la presión, pero parece que eso está llevando a una disminución de la calidad global, aumentando la tolerancia de los científicos con prácticas dudosas y, en algunas disciplinas, llegando a poner en cuestión el propio avance científico de las mismas.

Un sistema que ha crecido de una forma tan explosiva probablemente tiene aún que encontrar una armonización adecuada de los distintos intereses que alberga. En este camino, la presión por la productividad se tendrá que ver atemperada por la relevancia y la calidad de dichos productos. Para conseguirlo habrá que tener en cuenta cuestiones tales como la incorporación de proyectos colaborativos a gran escala, la cultura de la replicación, el registro, el establecimiento de buenas prácticas de reproducibilidad, la mejora de métodos estadísticos, la estandarización de definiciones y análisis, etc. (recomendaciones tomadas de ref 1). El umbral de lo aceptable se ha desplazado hasta límites que en realidad no queríamos aceptar y es necesario trabajar para devolverlo a un lugar más razonable.


Referencias.
(ref 1) Ioannidis JPA (2014) How to Make More Published Research True. PLoS Med 11(10): e1001747. doi:10.1371/journal.pmed.1001747  http://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1001747

viernes, 21 de agosto de 2015

Fraude científico (IV). Algunas consecuencias

Esta semana se publica una serie de 5 artículos sobre el fraude científico en el Cuaderno de Cultura Científica.También se publican en este blog un día más tarde.


Fraude científico (IV). Algunas consecuencias

La existencia del fraude en investigación no es exclusivo de la investigación científica, recientemente se destapado un escándalo sobre la investigación forense del FBI (ref 1). Afecta a las pruebas de concordancia de cabellos que se han utilizado como prueba de cargo en centenares de casos. Revisiones independientes de las pruebas llevan a una falta de reproducibilidad masiva que pone en cuestión la validez de la propia técnica. Estos investigadores, convencidos de la culpabilidad del acusado, ven pruebas más allá de donde realmente las hay del mismo modo que los científicos convencidos de su hipótesis pueden caer en la ciencia patológica. Es interesante comprobar que, también en este caso, la repetición de las pruebas y el avance del conocimiento van corrigiendo los errores. En el caso forense las consecuencias de los errores han podido ser fatales dado que hay casos revisados en los que los acusados fueron condenados a muerte y se ha ejecutado ya la sentencia. En el caso de la ciencia ¿cuáles son las consecuencias de errores y fraudes? Fundamentalmente dos: retracción de artículos e irreproducibilidad resultados.

Cuando se publica un resultado incorrecto y se descubre el fallo hay varias posibilidades. Si el error no invalida las conclusiones del trabajo se publica una fe de erratas en un número posterior de la revista indicando el problema existente en la publicación original. Si el error sí invalida las conclusiones el trabajo debe ser retractado, eliminándolo de la publicación. La retracción pueden realizarla los autores o los editores de la revista dependiendo del caso. También puede ocurrir que haya errores que pasen desapercibidos, en este caso permanecerán en la literatura científica indefinidamente.

Figura 1. Tomada de (ref 3), aumento de retracciones con el paso del tiempo

La proporción de artículos retractados respecto de los publicados es insignificante. Sin embargo, desde el año 2000 aproximadamente, el número de retracciones está creciendo exponencialmente, incrementándose significativamente la proporción de retracciones respecto de artículos publicados, aunque sigue estando muy por debajo del uno por mil (ref 2,3). Otra observación interesante es la correlación que se observa entre la proporción de artículos retractados y la calidad de las revistas de las que se retiran (considerada a través de su índice de impacto). Las revistas más citadas son también las que sufren más retracciones (ref 4). Los expertos que analizan estas tendencias no creen estemos viviendo una explosión del fraude científico, sino que es su detección lo que se facilita.  Es hacia el año 2000 cuando se incorpora de forma masiva el uso de internet al manejo de la literatura científica por parte de los investigadores. Esto ha supuesto que sea más fácil consultar lo publicado, lo que se refleja en que los artículos incluyen más citas  (ref .5)  y probablemente en que se cuestione más lo publicado, encontrándose más errores que dan lugar a retracciones. Esto explicaría también la correlación con el índice de impacto: las revistas más leídas, obviamente, se ven sometidas a un escrutinio más riguroso que hace aflorar errores y con ellos las retracciones. Es por tanto probable que en revistas con índice de impacto más bajo haya errores que nadie detecta y que permanecen en la literatura. Lo que ocurre es que esos resultados fallidos no sirven de cimiento para posteriores trabajos; si son erróneos pero fundamentalmente irrelevantes tampoco es un gran inconveniente.

Figura 2. Tomada de (ref 7), resultados de un estudios sobre la reproducibilidad de 100 trabajos.

Un segundo problema relacionado con las malas prácticas científicas es la irreproducibilidad de los resultados. Se ha llegado a publicar que “la mayoría de los resultados de investigación publicados son falsos” (ref 6). La afirmación se basa en una comparación estadística entre los resultados publicados y las distribuciones que serían esperables. El estudio se concentra en trabajos de medicina. Se puede criticar que para una afirmación tan gruesa las pruebas que se aportan son demasiado circunstanciales ya que no se identifica ningún caso concreto de fraude ni nada parecido. Recientemente se ha realizado un amplio estudio sobre la reproducibilidad de resultados publicados, en psicología en este caso (ref 7), obteniéndose unos datos muy pobres: el 61% de los resultados no se reproducían en absoluto y en el resto solo parcialmente. El problema está lejos de ser anecdótico, especialmente en disciplinas en las que es necesario repetir ensayos sobre gran cantidad de individuos y donde hay muchas variables que pueden interferir en los resultados (como medicina y psicología entre otros). Las características de estas disciplinas dejan unos huecos para las prácticas cuestionables que son difíciles de imaginar en otras en que los sistemas de estudio son más limpios y la evolución disciplinar más acumulativa (como la ingeniería de comunicaciones o la física teórica, por ejemplo). No es que en estas últimas no haya casos de fraude de los dos tipos estudiados, pero es difícil imaginar toda una carrera científica larga y muy exitosa montada sobre resultados fraudulentos (como el caso de Diederik A. Stapel (ref. 8)).

No importa cuál sea la razón última de la falta de reproducibilidad, presión por publicaciones positivas, tendencia a tamaños de muestra demasiado pequeños (por ahorrar costes), descuido en la realización de controles o fraude más o menos abierto. Sea como fuere, el resultado es que el avance real de las disciplinas afectadas está seriamente comprometido ante la falta de seguridad que ofrece la literatura establecida. Con el fin de atajar este problema se han propuesto desde soluciones un tanto peregrinas, como exigir a los doctorandos la repetición de resultados publicados (ref. 9) hasta planes de actuación más complejos a largo plazo como la propuesta de Ioanidis “como hacer más investigación publicada verdadera” (ref. 10). Su propuesta incluye cosas como: La adopción de proyectos colaborativos a gran escala, la cultura de la replicación, el registro, establecimiento de buenas prácticas de reproducibilidad, mejora de métodos estadísticos, estandarización de definiciones y análisis, etc. De alguna forma parece que el umbral de lo aceptable se ha desplazado en algunas disciplinas hasta límites que en realidad no queríamos aceptar y es necesario un trabajo de fondo para devolverlo a un lugar más razonable.


Referencias.
(ref 1) “Pseudosicence in the witness box”, Dahlia Lithwick, en Slate, 22 de abril de 2015, http://www.slate.com/articles/news_and_politics/jurisprudence/2015/04/fbi_s_flawed_forensics_expert_testimony_hair_analysis_bite_marks_fingerprints.html
(ref 2) “Por qué los editores de revistas científicas no quieren usar programas antiplagio y antifraud” Francisco Villatoro en La ciencia de la mula Francis, 5 de octubre de 2011, http://francis.naukas.com/2011/10/05/por-que-los-editores-de-revistas-cientificas-no-quieren-usar-programas-antiplagio-y-antifraude/
(ref 3) Nature 478, 26-28 (2011) http://www.nature.com/news/2011/111005/full/478026a/box/2.html
(ref 4) “Retracted Science and the Retraction Index”, F.C. Fang, A. Casadevall and R. P. Morrison, Infect. Immun. October 2011 vol. 79 no. 10 3855-3859 http://iai.asm.org/content/79/10/3855
(ref 5) "Growth in the number of references in engineering journal papers during the 1972–2013 period" I. Ucar, F. López-Fernandino, P. Rodriguez-Ulibarri, L. Sesma-Sanchez, V. Urrea-Micó and J. Sevilla. Scientometrics 98 (3), 1855-1864.  http://link.springer.com/article/10.1007/s11192-013-1113-6
(ref 6) Ioannidis JPA (2005) Why Most Published Research Findings Are False. PLoS Med 2(8): e124. doi:10.1371/journal.pmed.0020124 http://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0020124
(ref 7) "First results from psychology’s largest reproducibility test" Monya Baker. Nature News, 30 April 2015, doi:10.1038/nature.2015.17433.  http://www.nature.com/news/first-results-from-psychology-s-largest-reproducibility-test-1.17433
(ref 8) Stapel en Wikipedia https://en.wikipedia.org/wiki/Diederik_Stapel
(ref 9) "Could students solve the irreproducibility crisis?", Chris Woolston.  Nature 524, 9 (06 August 2015) doi:10.1038/524009f  http://www.nature.com/news/could-students-solve-the-irreproducibility-crisis-1.18095
(ref 10) Ioannidis JPA (2014) How to Make More Published Research True. PLoS Med 11(10): e1001747. doi:10.1371/journal.pmed.1001747  http://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1001747
 

jueves, 20 de agosto de 2015

Fraude científico (III). Profundizando en los dos tipos de fraude

Esta semana se publica una serie de 5 artículos sobre el fraude científico en el Cuaderno de Cultura Científica.También se publican en este blog un día más tarde.


Fraude científico (III). Profundizando en los dos tipos de fraude

Podríamos resumir el capítulo anterior de esta miniserie con las siguientes ideas. Entre el comportamiento totalmente honesto y el fraude absoluto hay un continuo de malas prácticas en el que no se puede establecer una frontera categórica. Sin embargo existe un umbral de lo aceptable, individual y socialmente, que no es totalmente fijo. Se pueden considerar dos tipos distintos de fraude: uno en el que el científico, en pos de la validación de su hipótesis, va desplazando el umbral de lo aceptable incurriendo en prácticas progresivamente menos éticas; en el segundo tipo es la presión por obtener resultados profesionalmente valiosos lo que impulsa al científico a saltarse abiertamente el umbral e incurrir en prácticas fraudulentas. Por brevedad le llamaremos fraude tipo 1 al primero (inconsciente y movido por la hipótesis) y tipo 2 al segundo (consciente y motivado por la presión profesional).

Al fraude tipo 2 contribuyen presiones externas, como la necesidad de publicar (“publicar o perecer”), intereses empresariales o políticos (ejemplo exagerado sería el caso Lysenko en la URSS, ref 1). También contribuyen presiones internas, especialmente la vanidad, defecto que se atribuye frecuentemente a los científicos. Valga como ejemplo esta cita textual de (ref  2):

"La personalidad del científico y del individuo intelectualmente dotado no ha cambiado a través de las épocas; la postura narcisista y paranoide de algunos investigadores puede hipertrofiarse y sinergizarse con la demanda apremiante del sistema de valoración científica de nuestros días, y con presiones chauvinistas o políticas"

En cualquier caso, siguiendo a Nicolas Turro (ref 3), "no estoy interesado en las prácticas deshonestas que raramente son intelectualmente interesantes", por lo que no vamos a profundizar más en el fraude tipo 2. Se puede encontrar más información en (ref 2) y una gran cantidad de caso analizados también en (ref 4).

El fraude tipo 1, el que resulta intelectualmente interesante, probablemente es consustancial al desarrollo mismo de la actividad científica. Vamos a acompañar a Turro hacia una teoría general de la ciencia patológica (ref 3), comenzando con un par de citas textuales:

El camino de la gran ciencia no es que esté ensuciado con algunos errores históricos, está construido mediante un proceso de corrección de errores constante(The road to greater scientific truth is not just littered with history's errors; it is built through a process of constant error correction).

“La incertidumbre es parte de todas las ciencias, y los juicios subjetivos son inevitables en la mayoría de los campos, pero los fenómenos estadísticamente marginales en el umbral de la percepción humana son fáciles de malinterpretar.” (Uncertainty is part of all science, and subjective judgments are inescapable in most fields, but statistically marginal phenomena on the threshold of human perception are easy to misinterpret).

Todos hemos oído que para ser innovadores hay que pensar “fuera de la caja”. En ciencia también es cierto que para conseguir avances significativos hay que pensar más allá de lo establecido. Pero ¿qué es exactamente “la caja” fuera de la cual hay que situarse? Esta caja se puede identificar con el paradigma, el concepto central de Thomas Kuhn en su teoría de las revoluciones científicas (ref 5). Kuhn plantea una evolución de las disciplinas científicas (una vez establecidas como tales) en las que se alternan períodos de “ciencia normal” con momentos de revolución. En las fases de ciencia normal la comunidad científica asume de forma consensuada un conjunto de teorías que conforman “el paradigma” científico del momento. La tarea en estas fases consiste en ir intentando explicar cuestiones novedosas en el marco del paradigma vigente, o dicho de otro modo, ir extendiendo el ámbito de validez del paradigma. En esta tarea van apareciendo casos que no encajan, anomalías. Mientras no son demasiadas pasan desapercibidas pero a medida que la cantidad de anomalías aumenta, puede dar lugar a una situación de crisis que se supera con la creación de un nuevo paradigma. El nuevo esquema es mejor que el anterior dado que debe explicar las mismas cosas que el anterior más las anomalías, o al menos buena parte de ellas.


 Figura 1.- Representación esquemática de la estructura de las revoluciones científicas de Kuhn. La superior enfatiza el carácter cíclico del cambio de paradigmas, la de abajo su carácter incremental.


Así pues, es necesario alejarse de lo establecido, salirse del centro del paradigma, para afrontar las revoluciones que darán lugar a avances científicos significativos. Pero ese camino es peligroso, no es nada fácil distinguir auténticas anomalías de errores de medida, en cambio sí es fácil dejarse llevar por la ilusión y ver revoluciones donde no las hay. Un momento de crisis en el avance de una disciplina supone andar sobre el filo de la navaja. Se puede caer del lado de la genialidad y proponer un avance genuino, o se puede caer del lado equivocado, en el error; y si se persevera en el con suficiente energía, en el fraude. Ese fraude sería el que se ha denominado en el pasado “ciencia patológica”. En muchos casos solo el paso del tiempo y la repetición y refinamiento de los experimentos es el juez capaz de diferenciar entre ambos.



Obsérvese cuan diferente es la consideración de las prácticas poco rigurosas en el caso de que la idea perseguida fuera realmente revolucionaria o no. El que Galileo (quizá) no hiciera muchos de los experimentos que relata, Millikan escogiera de entre sus resultados los que le cuadraban o Mendel maquillara completamente los resultados de sus guisantes no importa, ya que con esas faltas (llamarle fraudes o no dependerá de dónde coloquemos cada uno nuestro umbral de lo aceptable) contribuyeron a establecer revoluciones científicas genuinas. Con faltas equivalentes cometidas, por ejemplo por Flishman y Pons cuando pretendieron haber encontrado la fusión fría (ref 6), somos mucho menos indulgentes. Esos errores apoyaban una idea que el tiempo demostró equivocada y por tanto somos mucho más proclives a considerarlas fraudulentas.

Cuando las excursiones del paradigma han resultado fallidas, pero sus autores perseveran en su ilusión de revolución se tienden a producir una serie de comportamientos extraños que fueron identificados por primera vez por Irving Langmuir,  químico y físico estadounidense, ganador del  Nobel de química en 1932. En una conferencia celebrada en 1953, Langmuir denominó “ciencia patológica” a este tipo de comportamientos (refs 7,8), describiendo una serie de características como serían (sin pretensión de exahustividad):
  • El efecto observable máximo es producido por un agente causante de intensidad apenas perceptible, y la magnitud del efecto es sustancialmente independiente de la intensidad de la causa.
  • La magnitud del efecto es cercana al límite de la detectabilidad, o muchas medidas son necesarias debido a la baja relevancia estadística de los resultados.
  • Hay afirmaciones de gran exactitud.
  • Se proponen teorías fantásticas contrarias a la experiencia.
  • Las críticas se resuelven con excusas ad hoc.
  • La proporción de partidarios frente a los críticos aumenta y después cae gradualmente al olvido.
Recapitulando, hemos diferenciado dos tipos de fraude, el movido por el deseo de descubrimiento (tipo 1) y el derivado de la presión profesional (tipo 2). Contribuyen al de tipo 2, menos interesante intelectualmente, presiones externas como la necesidad de publicación e internas como la vanidad. El de tipo 1, más consustancial al avance científico, se produce cuando se explora sin éxito los bordes del paradigma vigente (en términos de Kuhn) e incluya la ciencia patológica.

Referencias.
(ref 1) Ver, por ejemplo, Lysenkoísmo en la Wikipedia https://es.wikipedia.org/wiki/Lysenko%C3%ADsmo
(ref 2) Pablo C. Schulz e Issa Katime  "Los fraudes científicos" Revista Iberoamericana de polímeros Vol 4(2), Abril 2003  http://www.ehu.eus/reviberpol/pdf/ABR03/EL%20FRAUDE%20CIENTIFICO.pdf
(ref 3) Turro, Nicholas J. "Toward a general theory of pathological science." Un ensayo tomado de una serie de charlas en el Instituto Max Pank y publblicado en http://www.columbia.edu/cu/21stC/issue-3.4/turro.html (1998).
(ref 4) "LAS MENTIRAS DE LA CIENCIA" Federico di Trocchio. Alianza Editorial, 1993
(ref 5) “La Estructura de las Revoluciones Científicas”, Thomas Khun, 1962
(ref 6) “La fusión fría como ejemplo de ciencia patológica”, Francisco Villatoro, en La ciencia de la mula francias, 12 de abril de 2011. http://francis.naukas.com/2011/04/12/la-fusion-fria-como-ejemplo-de-ciencia-patologica/
(ref 7) “Ni ciencia ni pseudociencia, ciencia patológica”, César Tomé , en Cuadrno de cultura científica, 21 de mayo de 2013. http://culturacientifica.com/2013/05/21/ni-ciencia-ni-pseudociencia-ciencia-patologica/
(Ref 8) Wikipedia - https://en.wikipedia.org/wiki/Pathological_science


miércoles, 19 de agosto de 2015

Fraude científico (II). La difusa frontera de la deshonestidad

Esta semana se publica una serie de 5 artículos sobre el fraude científico en el Cuaderno de Cultura Científica.También se publican en este blog un día más tarde.


Fraude científico (II). La difusa frontera de la deshonestidad

Hay una broma clásica, que circulaba en fotocopias por los laboratorios antes de internet, que consiste en un glosario de frases típicas de artículos científicos junto con su supuesto significado verdadero. Cosas del tipo “la muestra fue tratada con extremo cuidado” significaría “solo se nos cayó al suelo tres o cuatro veces” o “un resultado típico” que significaría “la única vez que salió así de bien”. La broma resulta graciosa entre las personas que escriben artículos científicos porque de una u otra forma se encuentran reflejados en ellas. Todos exageramos un poco nuestros resultados a la hora de comunicarlos, o quizá no tan poco. ¿Es esto fraude? La gran mayoría de la gente no considera fraude este tipo de prácticas de, llamémosle, escritura creativa. ¿Y olvidar un punto en una gráfica porque difería mucho de otros cien? ¿Es eso fraude? Solo un dato entre cien, claramente disonante, parece que la ley de los grandes números estaría de nuestro lado. Aunque no sepamos que se hizo mal, podemos suponer que en ese caso hubo un fallo en el experimento y podemos descartarlo sin problemas. ¿Y dos? ¿Y si fueran el 75% de los datos?

Figura 1. Las malas prácticas científicas constituyen un continuo sin fronteras definidas. Sobre él se puede encontrar un umbral de lo aceptable individual y socialmente. El umbral no es fijo.

Entre las prácticas que sin ser perfectas son claramente aceptables y la deshonestidad manifiesta existe un continuo en el que no es evidente establecer la frontera. Esta cuestión la ha estudiado con profundidad el investigador de la Universidad de Duke Dan Ariely. En sus estudios sobre economía basada en el comportamiento (behavioral economics) ha realizado una serie de experimentos sobre la deshonestidad, no en el ámbito específico de la ciencia pero aplicables también al mismo (refs 2, 3). Según estos trabajos, los mentirosos compulsivos, personas abiertamente deshonestas, existen pero en una proporción bajísima. La mayoría pensamos de nosotros mismos que somos personas honestas, y nuestro comportamiento no debe entrar en contradicción con esa autoimagen de rectitud. Por otro lado, hay muchas situaciones en las que, sin apenas riesgo, tenemos al alcance de la mano algo que nos produce un beneficio significativo a cambio de una pequeña falta.

Por un lado tenemos la autoimagen de rectitud, y por otro la tentación del beneficio fácil y entre ambos polos se establece una tensión que se resuelve con el establecimiento de un umbral de lo aceptable, un cierto nivel de deshonestidad que podemos racionalizar que resulta tolerable. Es aceptable tomar un lápiz del armario de material de la oficina y llevárselo a casa, o una carpeta o unos folios. En cambio si se deja un cesta con monedas, aunque tengan el mismo valor que los lápices, nadie se lleva una moneda, no es aceptable, lo percibimos como un robo. Ariely describe un montón de experimentos, realizados en algunos casos con grupos de miles de personas, en los que se comprueba la existencia de ese umbral de la deshonestidad tolerable y, lo que es más interesante, cómo ese umbral se modifica un poco al alza o a la baja en función de algunas variables de entorno con las que juegan en los experimentos. Los comportamientos que más fácilmente van a entrar dentro del margen de lo aceptable son los que se pueden justificar de una forma más sencilla: el daño producido es muy pequeño, todo el mundo lo hace, etc.

Estos resultados de Ariely son directamente transportables al caso de la honestidad del científico. La pequeña falta de llevarse un lápiz del trabajo, que apenas es nada y todo el mundo lo hace tiene su equivalente en la exageración de los resultados en las publicaciones: aceptamos que no hace daño a nadie y que todo el mundo lo hace, luego no plantea problemas a nuestra autoimagen de científicos rectos.

Tenemos pues un primer modelo para acercarnos al análisis del fraude científico: las malas prácticas se disponen en un continuo sobre el que existe un umbral de lo aceptable admitido personal y socialmente. El umbral no es fijo, puede variar con el tiempo, con el grupo social (por ejemplo entre diferentes disciplinas científicas) y por supuesto con el individuo concreto. Consideraremos por tanto prácticas fraudulentas las que estén más allá del umbral de lo aceptable.

Figura 2. Representación esquemática de los dos tipos de fraude científico, el que empuja el umbral de lo aceptable movido por su deseo de corroborar una hipótesis y el que salta el umbral en un atajo hacia méritos profesionales esquivos.


En el fraude científico se pueden establecer dos categorías fundamentalmente diferentes, que se corresponderían con las dos facetas fundamentales del científico y que dan lugar a dos formas distintas de rebasar el umbral de lo aceptable. Federico di Trocchio, tras un extenso análisis de casos de fraude (ref 4) ya establece estas dos categorías de fraude. La actividad del científico tiene dos aspectos fundamentales: por un lado la ciencia es una actitud vital, el deseo de conocer, de plantear preguntas y encontrar respuestas; por otro lado la ciencia es una profesión, una profesión muy exigente en ocasiones, que requiere de la obtención de resultados con regularidad. Esta exigencia se resume a menudo en la frase “publicar o perecer”.

La ciencia como actitud vital da lugar a un tipo de fraude en el que el umbral de lo tolerable se va desplazando poco a poco hacia lo deshonesto. El científico, obcecado por la validez de su hipótesis, descuida el rigor de sus prácticas y se va deslizando hacia el fraude progresivamente. En su mente el fin justifica los medios y nunca pierde su autoimagen de honestidad. Por otro lado, el científico como profesional, en casos en que la amenaza de “publicar o perecer” se percibe muy próxima a perecer, puede sentirse impelido a saltarse el umbral de lo aceptable y caer en malas prácticas abiertamente. A diferencia del caso anterior, en este la ruptura del umbral es brusca y consciente.

Referencias.
(ref 1) Parece ser que la primera versión procede de C.D. Graham, From Metal Progress 71, 75 (1957). Se puede encontrar en multitud de sitios, por ejemplo:  (i) http://www.astro.rug.nl/~terlouw/glossary.html o (ii) http://www.science20.com/genomicron/guide_translating_scientific_papers_plain_english-28033
(ref 2) “The Honest Truth About Dishonesty: How We Lie to Everyone--Especially Ourselves” Dan Ariely, Harper Collins Publishers, 2012.
(ref 3) Se pueden encontrar conferencias de Ariely en youtube donde explica sus experimentos:
Tam 2013 https://www.youtube.com/watch?v=G2RKQkAoY3k
TED 2012 https://www.youtube.com/watch?v=onLPDegxXx8
(ref 4) "LAS MENTIRAS DE LA CIENCIA" Federico di Trocchio. Alianza Editorial, 1993

martes, 18 de agosto de 2015

Fraude científico (I). Una primera aproximación

Esta semana se publica una serie de 5 artículos sobre el fraude científico en el Cuaderno de Cultura Científica. Irán apareciendo también en este blog un día más tarde.



Fraude científico (I). Una primera aproximación

De vez en cuando salta  a los medios de comunicación un caso de fraude científico y siempre resulta sorprendente. Claro que sabemos que las personas que se dedican a la ciencia son humanas y  por tanto sujetas a las mismas debilidades que cualquier otra persona, pero hay cierto tipo de debilidades que resultan especialmente incómodas. Nos resulta especialmente repulsivos las violaciones relacionadas con la profesión del delincuente: un pirómano de profesión bombero, un delincuente sexual sacerdote o, el caso que nos ocupa, un mentiroso de profesión científico.

El fraude científico existe, existe desde siempre y hay casos entre los científicos más famosos. Hay fundadas sospechas de que Ptolomeo hizo pasar por suyos datos astronómicos que en realidad eran de Aristarco de Samos (ref 1). Recientemente ha ingresado en prisión Dong-Pyou Han, un investigador en vacunas, condenado por inventar datos en experimentos sobre la vacuna contra el VIH (ref 2, 3). Los casi 2000 años que separan estos sucesos han estado salpicados de otros muchos casos. Parece ser que Millikan eliminaba de su cuaderno de laboratorio las observaciones que no le interesaban, Mendel y sus guisantes también han resultado polémicos, incluso hay dudas sobre si Galileo realizó realmente los experimentos que relata en sus textos. Hay casos clásicos, como el del hombre de Pitdown, un fósil que se hizo pasar por el eslabón perdido en la evolución entre el hombre y el mono cuando realmente era un engendro creado con trozos de cráneo humano y de chimpancé (ref 6). Hay multitud de casos bien documentados, así como diversas compilaciones (ref 4, 5).





Figura 1. Desde Ptolomeo hasta este mismo año, pasando por casos clásicos como el “hombre de Pitdown”, el fraude científico ha existido siempre.


Repuestos de la sorpresa inicial y convencidos de que de vez en cuando aparecen casos de fraude científico, el siguiente paso es suponer que esos casos son relativamente anecdóticos. Probablemente se trate de unas pocas manzanas podridas en un ambiente fundamentalmente honesto. Sin embargo la evidencia empírica parece dejar claro que no es este el caso. Según algunos estudios (ref 7), un tercio de los científicos admite realizar algún tipo de malas prácticas y uno de cada 50 admite falsificar o inventar resultados, una de las peores prácticas imaginables. Estos resultados están en la misma línea de otros publicados con anterioridad (ref 8) en los que se elevaba al 72% el nivel de incidencia de algún tipo de malas prácticas científicas. Es interesante notar que cuando se pregunta por las malas prácticas que uno conoce de los compañeros los números salen bastante más altos que cuando se pregunta por las propias.

Con independencia de los detalles finos, este tipo de estudios deja claro que el modelo de unas pocas manzanas podridas en un entorno fundamentalmente honesto no se sostiene. Unas prácticas en las que incurre entre el 66% y el 72% de un grupo no se puede considerar una rareza; esos números más bien sugieren que estamos más ante una característica que ante una enfermedad. Sin embargo, habrá quien piense que no puede haber una zona de incertidumbre tan grande ya que la ciencia bien hecha sigue un proceso establecido bien definido como es el método científico. Según esa imagen el método científico es como una máquina de hacer chorizos que, si se alimenta con el material adecuado (observaciones y experimentos) y se le da vueltas correctamente a la manivela (hipótesis, deducción, comparación con el y vuelta al comienzo), lleva inexcusablemente al resultado deseado: conocimiento científico certificado. Esa visión del método científico es demasiado simplista y fundamentalmente incorrecta. Lamentablemente no existe un método científico normativo que proporcione una certificación, un criterio de demarcación definido entre lo que es científico y lo que no lo es. Tampoco se puede recurrir a otros criterios sencillos del tipo “es ciencia lo que haya sido publicado en revistas de alta calidad con revisión por pares”. Los pares que revisan los artículos vigilan un cierto tono general de sensatez de lo que se publica pero no repiten con sistemática los resultados propuestos para publicación. De hecho, como veremos más adelante, se publican por estos cauces “oficiales” de la ciencia multitud de errores y falsedades.



Figura 2. Modelo naïve del método científico ejemplificado con una máquina de hacer chorizos. Según el modelo, dándole vueltas al ciclo de la hipótesis, deducción, comparación con el experimento, se obtiene conocimiento científico certificado. Tal método no existe.


Queda pues planteado el problema, no disponemos de ninguna criba que nos separe el grano de la paja: la ciencia bien hecha de la que se ha generado con mala praxis. Por otro lado,  comportamientos calificables como mala praxis en algún sentido u otro afectan a la mayoría absoluta de los científicos. Para comprender como es esto posible, y por qué no elimina la validez de la ciencia (o en qué medida si lo hace) necesitamos un modelo más complejo de la actividad científica y de la mala praxis en la misma. Esto es lo que se pretende desarrollar en los próximos capítulos de esta miniserie sobre el fraude científico.

Referencias.
(ref 1) Astronomy &Geophysics (April-May 1997) 38 (2): 24-27.   doi: 10.1093/astrogeo/38.2.24
(ref 2) Nature 523,138–139 (09 July 2015) doi:10.1038/nature.2015.17660
(ref 3) "Ex-scientist sentenced to prison for academic fraud" USA Today July 1, 2015 http://www.usatoday.com/story/news/nation/2015/07/01/ex-scientist-sentenced-prison-academic-fraud/29596271/  Es interesante como en este titular “expulsan” al condenado de la profesión de científico, como si el fraude futa incompatible con el título de “científico”.
(ref 4) "LAS MENTIRAS DE LA CIENCIA" Federico di Trocchio. Alianza Editorial, 1993
(ref 5) Pablo C. Schulz e Issa Katime  "Los fraudes científicos" Revista Iberoamericana de polímeros Vol 4(2), Abril 2003  http://www.ehu.eus/reviberpol/pdf/ABR03/EL%20FRAUDE%20CIENTIFICO.pdf
(ref 6) https://en.wikipedia.org/wiki/Piltdown_Man
(ref 7) A Scientist’s Worst Nightmare, Neurobonkers feb 17, 2012 http://neurobonkers.com/2012/02/17/researching-falsification-in-research/ La infografía ahí incluida contiene multitude de referencias, algunas de las cuales se analizan en el texto citado.
(ref 8) Fanelli D (2009) How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data. PLoS ONE 4(5): e5738. doi:10.1371/journal.pone.0005738
(ref 9) “Ni las teorías científicas son falsables, ni existe el método científico”. César Tomé. Experientia Docet, Naukas, 2 de octubre de 2014
http://edocet.naukas.com/2014/10/02/ni-las-teorias-cientificas-son-falsables-ni-existe-el-metodo-cientifico/