Cómo hacer ciencia de la moral

Fotograma de “El dilema” (The Insider) - Touchstone Pictures, 1999. Peliculón de los que ya no se hacen.

Fotograma de “El dilema” (The Insider) – Touchstone Pictures, 1999. Peliculón de los que ya no se hacen.

Entre los vagos recuerdos que tengo de historia de la filosofía, he conservado el prejuicio de que la moral es un palo que todos han querido tocar. Algunos con más fortuna que otros, pero ninguno recurriendo al método científico. Lo cierto es que ya David Hume defendía esta posibilidad, y que la tradición se ha roto en los últimos años: las disertaciones de torre de marfil han dado paso a los experimentos, y el ritmo al que avanzan los estudios es vertiginoso. Joshua Greene, Joshua Knobe y Shaun Nichols son algunos exponentes de esta nueva generación, pero retrocederé un poco para explicar cómo empezó la andadura de la ciencia en la moral.

Vamos con un ejemplo

¿Conocéis el dilema del tranvía? Supongamos que un tranvía viaja a toda velocidad con su conductor desmayado. Se aproxima a una bifurcación, y si sigue en la misma dirección, atropellará a 5 personas que se encuentran en la vía sin posibilidad de escapar. Por suerte, pasa por ahí Rebeca, que tiene a mano la palanca para cambiar el rumbo del tranvía, pero se enfrenta a un dilema: en la otra vía hay una persona. ¿Qué debería hacer Rebeca? Podría dejar morir a 5 personas, o bien accionar la palanca salvando a 5 pero dejando morir a uno.

El dilema del tranvía - Imagen de Frank O'Connell para The New York Times

El dilema del tranvía – Imagen de Frank O’Connell para The New York Times

Veamos una variación: en este caso no hay bifurcación, simplemente un puente encima de la vía en el que se encuentra una persona muy gruesa, lo bastante como para detener el tranvía si se le dejase caer. Detrás de esta persona se encuentra Manuel: ¿qué debería hacer?, ¿empujarlo, dándole así una muerte segura pero salvando la vida de 5 personas?

Podríamos seguir cambiando parámetros, pero echaré el freno al tranvía aquí. Si en su último post mi compañero Fran hablaba de los valores morales en tanto a cómo se educa lo que es “bueno” y “malo”, aquí damos otra vuelta de tuerca: cómo actuamos ante la opción mala y la peor.

¿Qué responde la gente?

Rebeca debe accionar la palanca, pero Manuel debe permanecer quieto y no cometer el gordicidio. La gracia no está sólo en qué decisiones toma la gente, que son universales, sino en cómo las justifican: la inmensa mayoría da respuestas vagas, sin atinar con la racionalidad de su opción. Es decir, tienen clara su decisión pero no saben explicarla. Sería así: el principio utilitarista que se sigue en el primer caso no procede en el segundo, pues Rebeca provocaría un daño colateral, indirecto, mientras que Manuel utilizaría a un semejante como medio (incumpliendo así un imperativo kantiano). Cuando alguno se deja llevar por el utilitarismo en el segundo caso, empieza a verlo distinto si se pone como ejemplo a una persona sana a la que se asesina para extraer sus órganos.

El filósofo John Rawls fue el primero en señalar que bajo esa apariencia impulsiva que tienen los juicios morales hay unos principios racionales en los que se apoyan. El profesor de Derecho John Mikhail, experto en ciencia cognitiva, puso a prueba esta idea, y fue el biológo y psicólogo Marc D. Hauser* quien popularizó los resultados en su obra “La mente moral”, además de replicarlos con una muestra mayor y más heterogénea. Mikhail propuso una analogía entre la moral y la gramática universal de Chomsky (explicada y criticada con brillantez por Fernando Blanco). Según esta teoría, la evolución nos ha dotado de unos principios básicos, una “gramática moral” a partir de la cual podemos ser educados en uno u otro sistema moral. Del mismo modo que todos tenemos la capacidad de aprender un lenguaje, pero aprendemos distintos idiomas según donde nazcamos.

Hablando de idiomas, ahí va otro resultado que me ha hecho mucha gracia, un estudio de la Universidad Pompeu Fabra en colaboración con la Autónoma de Barcelona, la Universidad de Chicago y la de Connecticut: las personas tienden a dejarse llevar más por el utilitarismo si el dilema se les plantea en una lengua distinta a la suya (Costa y cols, 2014). Los autores interpretan que la mayor distancia emocional que elicita un idioma extranjero es lo que sesga la decisión, si bien la «fluidez cognitiva» puede introducir ruido también. Me pregunto qué diría un psicólogo social de todo esto, máxime sabiendo que cuando se presenta la versión del dilema con chimpancés, la gente anima a Manuel a empujar desde el puente al mono grande (por supuesto, una mayor sensibilidad hacia los animales pronostica otro resultado).

¿Qué utilidad tiene el estudio de la moral?

Se intuye fácilmente el impacto que puede tener a la hora de legislar o de establecer códigos éticos. Hasta qué punto consigue ser determinante es algo que no sabría responder. Pero su necesidad está llegando en los últimos tiempos al sector tecnológico, tratándose de una cuestión de vida o muerte ya: ¿debería tu coche autónomo ponerte en peligro en caso de accidente si así se salvan más vidas?

Autor: Óscar Pérez Cabrero

Twitter: @OscarPerez_Psi

 

Referencias

Hauser, M.D. (2006/2008). «La mente moral. Cómo la natulareza ha desarrollado nuestro sentido del bien y del mal». Barcelona: Paidós.

Costa A, Foucart A, Hayakawa S, Aparici M, Apesteguia J, Heafner J, et al. (2014) Your Morals Depend on Language. PLoS ONE 9(4): e94842.

*Al citar a Hauser me siento obligado a hacer una anotación, pero la reservaré para la sección de comentarios.

Agradecimientos: a Pablo Adarraga Morales, por presentarme hace ya algunos años este área de estudio.

 

2 Respuestas a “Cómo hacer ciencia de la moral

  1. Reblogueó esto en La Escalera Rojay comentado:

    Nuevo post en el blog Ciencia y Comportamiento. Esta vez hablo de un tema que durante mucho tiempo ha sido ajeno al método científico: la moral. ¿Cómo se estudia? ¿De qué depende nuestra moral? Ahí va una breve introducción:

    Me gusta

  2. Lo prometido es deuda: voy a hablar del caso Hauser, y explicar por qué es tangencial a este post pero inevitable citarlo.

    Mark D. Hauser fue acusado en 2007 de fraude científico. Tras una investigación interna de la Universidad de Harvard, en 2010 fue declarado responsable único de lo sucedido. Se le atribuyó mala praxis en 8 artículos: 5 de ellos nunca llegaron a publicarse, y de los otros 3 logró publicar una réplica de uno de ellos. Hauser dimitió de su cátedra en 2011, y meses después Charles Gross publicó en The Nation un amplio artículo en el que explicaba el caso, traducido aquí al español: http://www.arcadiespada.es/wp-content/uploads/2012/01/Deshonra-Marc-Hauser.pdf

    En 2012, la Office of Research Integrity (un organismo gubernamental de EEUU) tras una investigación paralela declaró a Hauser culpable de fraude científico: http://harvardmagazine.com/2012/09/hauser-research-misconduct-reported

    Es una desgracia que suceda algo así, y el perjuicio que pudo suponer para su campo de investigación es difícil de calcular. Sin embargo, su caso revela algo que dignifica la práctica científica: los fraudes son perseguidos y condenados, sin excepción. Hauser se había convertido en una eminencia cuyo reconocimiento empezaba a ser mundial, y no por ello se frenó el rodillo del rigor que caracteriza a la actividad científica.

    En lo que respecta a este post, su mención es debida a su labor divulgativa, cosa que no tendría sentido esconder. En «La mente moral» cita al autor original de su trabajo, Mikhail, aunque por otra parte Gilbert Harman, profesor de Filosofía de Princeton, le acusa de presentar como suyas ideas que eran de aquel: http://www.princeton.edu/~harman/Mikhail%20and%20Hauser.pdf

    Me gusta

Te invitamos a dejar un comentario: