“Misconduct” colectiva

Hace poco se descubrió que un conocido científico de Harvard había incurrido en conducta inapropiada en su labor o “scientific misconduct”. Se trata del Dr. Marc Hauser, especialista líder en investigación sobre conducta cognitiva con primates.
Junto a los procedimientos de investigación institucionalizados por la Universidad, el Dr. Hauser terminó por reconocer que cometió “errores significativos” en tres trabajos publicados (que fueron retractados) y en otros más que permanecieron inéditos.

Independientemente de que los mencionados errores hayan sido por descuido, negligencia, accidente, o por manipulación deliberada, lo interesante de este caso es ver los múltiples impactos que genera y/o deja de generar: por un lado, en la credibilidad de toda la institución (en este caso Harvard) y de sus colegas, e incluso del método científico. Por otro lado, fuera de la comunidad científica, en la sociedad general: Hauser era una figura pública que realizaba actividades fuera del laboratorio (opinando en libros, haciendo disertaciones, participando en programas de difusión por tele y demás) y contaba con cierto grado de legitimada autoridad en la materia.

Me voy a detener sólo en el primer punto. Sus colegas, que se reconocen como directamente afectados en lo que atañe a su credibilidad, reducen el problema a una cuestión de moralidad y confianza. Bajo esta perspectiva, cito a un catedrático de la Universidad, Charles Snowdon, que opina en ocasión de los acontecimientos: “We basically have to trust one another, (…) We can’t possibly monitor everything in every laboratory. ’’. Este es el punto que predomina en la comunidad científica que rodea al caso, una suerte de fuerte lógica corporativa que impide la revisación y perfeccionamiento del sistema, excusándose en limitaciones (reales, es cierto) meramente técnicas o de recursos.

Esta crítica cobra más peso si revisamos que el proceso de juicio se produjo a partir de una digresión con Hauser por parte de sus alumnos en la interpretación de un experimento. Ellos fueron quienes reportaron sus inquietudes ante las autoridades de Harvard, fue ésta la iniciativa la que condujo a la investigación y a la corrección no sólo de los trabajos afectados por los errores sino de futuras investigaciones. Como el mismo Hauser reconoció “I have learned a great deal from this process and have made many changes in my own approach to research and in my lab’s research practices.”

Fuentes:
Harvard Finds Scientist Guilty of Misconduct: http://www.nytimes.com/2010/08/21/education/21harvard.html

Misconduct case taints research: http://www.boston.com/news/local/massachusetts/articles/2010/09/20/harvard_misconduct_case_casts_shadow_over_other_research/?page=full

Riorevuelto
No Comments
  • hypokampito
    Reply

    Hola Greta:

    Muy interesante el artículo. Este tipo de eventos lamentablemente es bastante común, solo que este caso tiene quizás más prensa porque sucedió en una universidad de las "prestigiosas".

    Podemos usar este caso para pensar varios puntos.

    Si la ciencia supuestamente no tiene que basarse en la autoridad per se de una persona o de una institución sino en las pruebas que aporta o los razonamientos que utiliza, ¿cómo puede ser que pasen estas cosas? El sistema científico se basa en el peer-review (sistema de revisión de pares en el cual tu trabajo es evaluado, por al menos dos investigadores independientes, antes de ser publicado). Por lo tanto, cabe preguntarse "¿cómo se les pudo haber pasado?".
    En parte la respuesta es la que da Snowdon: no se puede controlar todo. En última instancia uno confía en que el otro dice la verdad y le cree. Lo de "en última instancia" no significa que son todos nabos que creen cualquier cosa, pero sí que el sistema es susceptible a fallas y no existe una forma 100% segura de aprobar/desaprobar un trabajo/idea (¡por suerte!).

    Una de las razones por las que esto puede suceder en cualquier momento y en cualquier ámbito científico es que los investigadores a veces se olvidan un poco de la lógica o los procedimientos "formales" y se empieza a poner peso en los nombres (ya sea de una persona o de una institución). Es decir, en un ámbito informal se hace común uso de la falacia de apelación a la autoridad, y eso se traslada finalmente al ámbito formal. Por ejemplo, como revisor preguntás a un investigador por qué hizo las cosas así o asá, o por qué usó tal método. Y te dice "porque así lo publicó Juan A. Fulano en 1981 y se viene haciendo así desde ese momento. En ese punto, vos podés creerle (lo cual es fácil porque basta simplemente con buscar más publicaciones que citen el trabajo de J. A. Fulano 1981) o podés ir más allá e indagar más sobre el método y los resultados, etc. etc. Pero en términos prácticos, en principio recrear todo el trabajo de un investigador (a ver si su método es o no válido) generalmente no es una opción. Por lo tanto sí, terminás diciendo "ok, si Fulano lo publicó en 1981 y hasta ahora se sigue usando, hay una alta probabilidad de que no sea mentira". En este sentido vale la pena mencionar el caso de Alan Sokal (se aprovechó al máximo de esto y se rio del sistema científico). Lo que sí me desilusiona un poco es cuando la apelación a la autoridad la hace un alumno o investigador jóven ("si lo dijo J.A. Fulano es verdad"). En definitiva, sí, la ciencia tiene mil errores y los seguirá teniendo.
    Todo esto nos lleva a considerar algo que ya está estudiado hace muchos años y es fascinante: la comunidad científica dista mucho de ser un conjunto de robots que solo razonan y hacen adelantar el conocimiento. Tal como lo describieron grandes como Lakatos, Kuhn y Feyerabend, la ciencia no deja de ser una actividad humana y por lo tanto está cruzada por vínculos económicos, políticos y sociales. Y esto sin mencionar que todo se mueve dentro de un sistema "no permite ver más allá" del paradigma reinante.

    Dicho todo esto, me permito estar en parcial desacuerdo con la expresión del texto de Greta, según el cual en la comunidad científica predomina "una suerte de fuerte lógica corporativa que impide la revisación y perfeccionamiento del sistema, excusándose en limitaciones (reales, es cierto) meramente técnicas o de recursos". Coincido con lo expresado por Charles Snowdon. En este caso yo no creo que él esté "cubriendo" a su colega, sino que esa explicación “We basically have to trust one another, (…) We can’t possibly monitor everything in every laboratory" es una limitación real del campo científico (limitación cuya existencia no se limita al campo científico, si se me disculpa el juego de palabras). No veo cómo puede ser esto una "lógica corporativa" y no veo cómo esto puede impedir la revisación y perfeccionamiento del sistema. El sistema puede y y ES continuamente perfeccionado y revisado, dado que depende en última instancia de seres humanos que tienen distintas motivaciones e intereses. Y en cierta forma tiene una suerte de "autoregulación", en la cual las mentiras chicas pueden vivir mucho tiempo pero las mentiras grandes se caen por su propio peso. El hecho de que se descubran los casos como el del artículo es una prueba de que el sistema de vez en cuando "detecta" a los mentirosos. Esto está intrínsecamente ligado a la dinámica de la ciencia en nuestros tiempos: si vos tenés un descubrimiento o datos que querés divulgar, primero tenés que hacer difusión de ellos. Para que sean más bien confiables (en el sentido de "aceptables" por el resto de la comunidad científica), entonces esos datos/resultados tienen que ser evaluado por tus pares. Si es algo que nadie quiere tomarse el trabajo de chequear, entonces una mentira puede tener larga vida. Y si alguien (con una sola persona una sola vez alcanza) lo puede "falsar", tus resultados ya no valen. En este sentido, está buenísimo porque la ciencia es algo muy cercano al "open source" 🙂 dado que vos tenés que exponer todos los datos necesarios para que otro pueda reproducir los resultados en otro contexto/laboratorio, etc. Y otra persona en otro lado del mundo (que haya tenido acceso a tu publicación, pero ese es ooootro tema) puede chequear lo que hiciste y desmentirlo o mejorarlo, etc. Una triste excepción a esto es el caso e los investigadores que trabajan para grandes empresas farmacéuticas o de biotecnología (¿les suena?) que están obligados a no compartir los datos y métodos dado que tienen aplicación directa de importancia económica (claro, si descubriste cómo hacer que el tomate dure días y días con un color rojo increíble, no vas a andar avivando giles por ahí).

    En definitiva, no soy positivista ingenuo y no voy a decir que la ciencia es perfecta, pero me gustaría que viéramos este tipo de casos como una cosa "buena" de la ciencia (i.e., una relativa capacidad de autoregulación y detección de problemas/fraudes) y no como algo "malo" que pueda tener un efecto de descrédito en "el método científico". Pero vuelvo a mi punto: de ninguna manera es una "misconduct" colectiva en el sentido de que lo único "colectivo" acá fue la detección del error (por parte de los estudiantes, que también son del mundo científico). Sí podemos decir que fue una equivocación colectiva, lo cual es muy común en la ciencia como en cualquier otro sistema de conocimiento humano.

    Otro punto aunque ya un poco más alejado del tema principal, es que los científicos que "se portan mal" como M. Hauser (que siempre los hubo y siempre los habrá) contribuyen al descrédito que puede haber en algunas regiones/cículos socioculturales de la ciencia como sistema de conocimientos (como dice Greta, del método científico), pero ese es otro tema…

    Abrazos,
    Rodrigo

    21 de September de 2010 at 2:07 pm
  • Greta
    Reply

    Hola Rodrigo, ¿Cómo andás?, antes que nada, muchas gracias por responder.

    Vos y yo estamos de acuerdo en lo que respecta a la cuestión de la ciencia no como conocimiento incontestable sino como construcción social, con todo lo que ello implica. Sin embargo nuestra valoración con respecto a esto es lo que nos separa.

    En primer lugar, noto una cierta resignación en tu discurso en frases como, te cito: “En definitiva, sí, la ciencia tiene mil errores y los seguirá teniendo.”. Pero al mismo tiempo percibo un optimismo incremental cuando decís “El sistema puede, y ES continuamente perfeccionado y revisado (…) tiene una suerte de "autorregulación", en la cual las mentiras chicas pueden vivir mucho tiempo pero las mentiras grandes se caen por su propio peso”. Creo que el punto que nos distancia es un tema de niveles de tolerancia, la cuestión no es si la ciencia se regula y que algunas de sus “mentiras” sean desenmascaradas, sino en qué grado lo hace o, mejor dicho, hasta qué grado seguimos bancando a la ciencia como el máximo saber, como el más confiable a pesar de sus fallas. Y creo que la cuestión de la ciencia es particularmente sensible pues, si bien tenemos claras las conceptualizaciones sobre su carácter de actividad humana (ergo, falible), a la hora de pensar en sus “outputs” pocas veces las tenemos en cuenta.

    Por otro lado, vos hablas de que la ciencia tiene una suerte de autorregulación y de que no compartís lo que yo llamo “lógica corporativa”. Dos cosas con respecto a ésto: 1- yo no me refería a que Charles Snowdon estuviera cubriendo a su compañero, sino a la corporación –sea Harvard, sea la comunidad científica en su totalidad- que le da su sueldo, su prestigio, y su poder. En otras palabras, cubriendo su corporación para salvarse a sí mismo. Y, 2- ¿La autorregulación no es acaso una de las cosas más peligrosas que existen?, no voy a profundizar en ejemplos que demuestren como el control debe ser externo (burocracia vs. Parlamento, división de poderes, etc.), pero creo que cae en el sentido común que cualquier agencia genera intereses propios, y que si el control recae en ella misma, es difícil que su accionar trascienda la mera satisfacción de los intereses que mencionamos. Nuevamente, el área de la ciencia vuelve a ser paradigmática para este hecho por el sencillo tema de que los únicos capacitados, aparentemente, para ejercer el control dentro de la comunidad científica son los mismos científicos…

    Con lo cual toma forma esto que vos llamas autorregulación que garantiza este sentimiento corporativo del que yo hablo. Entiendo que suena extremista decir que un científico de Oxford va a “dejar pasar” un error de un científico de Harvard porque los une una lógica corporativa, para mí, y pensando en voz alta, no son los individuos los que concientemente defienden a su corporación, sino la estructura misma de la ciencia la que genera mecanismos de autodefensa de las instituciones. Es esta estructura la que deja a los individuos como Charles Snowdon sin más opciones que sentirse como hormiguitas en el desierto, incapaces de corroborar todo lo que ocurre en cada laboratorio y por eso justificando que la base última del sistema es la confianza mutua.

    Conocemos el dilema “agencia-estructura”, homologable a “individuo-corporación”, pero sin caer en la postulación de un problema insoluble (en definitiva, a mí no me importa qué determina a quién o viceversa, sino qué hacer al respecto) podemos afirmar que actitudes como la que muestra el Dr. Snowdon no hacen más que perpetuar el estado de las cosas.

    Para cerrar, una aclaración sobre el título que elegí para el comentario anterior. Con “misconduct colectiva” me refería al hecho de que el conjunto de hombres de ciencia incurren en una falta que atenta contra la ciencia al confiar tan ciegamente entre sí. Una de las premisas de los grandes científicos ha sido la duda, la oposición a lo que sus contemporáneos creían como cierto. Confiar en los demás, por más hostil que suene, va contra el espíritu de la ciencia. Es cierto que en este caso particular, se encontró la falla, el espíritu científico prevaleció a través de la observación de los alumnos, pero desde un panorama general, esto no parece ser tan frecuente, después de todo, Hauser había cometido errores en tres estudios (sin contar tantos más que no fueron publicados) antes de que nadie se de cuenta.

    22 de September de 2010 at 5:29 pm

Post a Comment