Dice Robin Hanson aquí que todo desacuerdo implica una falta de respeto hacia aquel con el que se desacuerda [1]:

When you knowingly disagree with someone you are judging them to be less rational than you, at least on that topic.  (Judging them less informed or experienced by itself can’t create disagreement.)  It might be only a minor disrespect, if you think this disagreement suggests little about whether you’d disagree with them elsewhere.  But disagreement is disrespect, nonetheless.

Qué es lo que dice en este párrafo? Lo siguiente:

  1. Juzgar a alguien menos informado que nosotros no puede, per se, crear desacuerdo
  2. Si estás en desacuerdo con alguien, le juzgamos como menos racional que nosotros, por tanto le estás faltando al respeto.

Y se pregunta

How exactly do you disagree with someone’s moral views without degrading them?  Can you really say pedophelia is disgusting without degrading pedophiles?

En este otro post resulta más claro

I want to draw attention to what is IMO probably the most interesting, surprising and challenging result in the field of human bias:that mutually respectful, honest and rational debaters cannot disagree on any factual matter once they know each other’s opinions. They cannot "agree to disagree", they can only agree to agree.

Punto importante: el argumento inicial queda matizado, ahora se admiten desacuerdos sobre "temas no factuales". Que dos personas estén en desacuerdo sobre si saben mejor las peras o las manzanas. Esta idea puede verse también aquí

As you well know, I am sensitive to the fact that on facts people disagree too easily, and so I try to disagree reluctantly if at all. But this doesn’t apply to disagreements about styles or personal values. So I accept that we have different styles and place a differing value on overcoming bias. But if there are factual disagreements central to the position of mine you see yourself rebutting, then I would love to see those stated as clearly as possible. I won’t limit your word budget.

One does not simply disagree

El artículo remite, finalmente a este paper de Hanson y Cowen donde se explica de forma más extensa el argumento.

Un resumen del artículo

  1. La gente piensa que podemos "estar de acuerdo en estar en desacuerdo". Lo que en otras palabras significa "Respeto tu opinión, pero no la comparto".
  2. Pero según Aumann, eso es irracional. Dos o más agentes Bayesianos llegarán a pensar lo mismo dada la misma información (los "priors") y si son mutuamente conscientes de las opiniones del otro. De modo que el desacuerdo sería irracional.
  3. El teorema plantea premisas relativamente restrictivas para llegar a su resultado, de modo que se ha trabajado en relajar esas premisas. No hace falta ser un bayesiano, basta con "saber que podrías estar equivocado, y que los demás podrían saber cosas que tú no sabes", lo que desde luego es más realista.
  4. La teoría de Aumann (simplificado) y posteriores trabajos aplica a toda disputa que pueda resolverse en términos de mundos posibles: Si hay acuerdo sobre qué sería lo correcto en varios mundos posibles entonces el debate será determinar en qué mundo vivimos. La teoría aplica para cosas tan variopintas como determinar la antiguedad de un coche, si Dios ha creado el universo, qué candidato político incrementará en mayor medida la prosperidad nacional o incluso zanjar cuestiones morales si ambas partes piensan que la moral tiene un contenido objetivo.
  5. Una de las asunciones que no se relaja plantea cierta controversia: asumir que agentes con la misma información deben compartir creencias. Hay quienes dicen que toda creencia es compatible con toda información, otros que una información dada lleva necesariamente a un conjunto de creencias determinado (Harsanyi y Aumann), y posiciones intermedias.
  6. Determinar si normalmente los desacuerdos son racionales implicaría resolver la cuestión anterior. En el artículo se analiza otra: si los desacuerdos son honestos. Si el desacuerdo se produce porque los individuos violan los estándares de racionalidad que plantean para sí y para otros, puede decirse que los desacuerdos son deshonestos.
  7. En general, en los desacuerdos ambas partes dicen buscar la verdad, dicen honestamente lo que piensan e intentar creer lo que es verdad. A diferencia de lo que ocurre con los fallos de consistencia lógicos, la gente no cambia inmediatamente de ideas tras encontrar un desacuerdo. La gente más inteligente o formada tiende a cometer menos fallos de índole lógica, pero no tiende a estar más de acuerdo.
  8. Para ciertos temas (política, moral, religión...) donde mucha gente presenta fuertes reacciones emocionales, el debate podría tender a polarizar y no a acercar opiniones.
  9. La gente tiene incentivos para creer lo que quiere creer. (Más del 50% de la gente se cree mejor en una dimensión dada que la media, lo cual es estadísticamente imposible)
  10. Dos agentes discrepan sobre X. A piensa que  la variable V vale X=0 y B piensa que V=Y=0. Si ambos asumen que la otra parte es honesta y busca la verdad, las razones que pudieran tener para pensar ambas cosas deberían llevarles a pensar que V=0.5. Quizás A sea un experto en la materia o tenga alguna razón en especial para que su observación sea más fiable, en cuyo caso su opinión tendría un mayor peso y V=0.8 por ejemplo. Sólo haría falta que A y B estén de acuerdo en cómo ponderar sus observaciones, y por un proceso de intercambio discursivo de intercambio de razones terminarían estando de acuerdo.
  11. La teoría anterior predice que no deberían existir desacuerdos si la gente fuese racional
  12. La gente quizá no diga lo que realmente piensa o se engañe a sí misma, pero estos fenómenos, según los autores, no están muy extendidos. La gente normalmente es honesta. Otra posibilidad es que la gente no conozca la teoría del desacuerdo expuesta por Aumann. Pero la gente que la conoce sigue estando en desacuerdo sobre temas varios. ¿Será cuestión de que los "priors" son diferentes? While Aumann’s result is robust to generalizing many of his assumptions, it is not robust to generalizing the assumption of common priors. Bayesians can easily disagree due to differing priors, regardless of whether or not they have differing information, mental contexts, or anything else. Does this allow typical human disagreement to be rational?
  13. En la mayoría de los temas en disputa, la evidencia no permite determinar con certeza absoluta lo que deberíamos pensar. Si no hay límites sobre la racionalidad de los priors, no hay límites sobre la racionalidad de las creencias. Todo aquel que piense que ciertas creencias son irracionales, está obligado a pensar que ciertos priors son irracionales.
  14. Esto puede intentar resolverse argumentando que algunos priors pueden tener un orígen genético, y que si conocemos que algunos de nuestros priors están sesgados, debemos abandonarlos. Pensemos en la ilusión de  Müller-Lyer . Nuestro prior es que "Las líneas tienen diferente tamaño". Pero como pre-prior tendríamos "Sé cómo funciona esta ilusión", lo que cancelaría al primero. El prior no desaparece (sigues viendo que una línea es más grande que la otra), simplemente se le asigna probabilidad cero. Un ejemplo más evidente sería el de una persona que siente asco hacia los homosexuales (prior) y por tanto cree que debería haber menos en el mundo. Pero tras leer literatura sobre el origen evolucionista, genético o cultural de esa reacción (pre-prior) decide dejar de pensarlo. Aquí esta persona seguiría sintiendo asco, pero ese prior ya no llevaría a una creencia pues ha sido anulado por el pre-prior al darse cuenta el agente de que su prior es espurio.
  15. La gente tiende a criticarse cuando alguien argumenta cosas incoherentes o inconsistentes, o cuando su opinión no cambia en respuesta a información relevante. La gente reconoce sesgos, pero es más difícil que los reconozcan en sí mismos. De ahí sale que los estándares de racionalidad que aplicamos a los demás no nos los apliquemos a nosotros. _That is, people do seem to think they can reason substantially better than others, in the absence of much evidence favoring this conclusion. People thus seem to violate the rationality standards they uphold. And as we have mentioned, such tendencies seem capable of explaining a great deal of human disagreement.  _Posiblemente porque tenemos incentivos para ello: _On truth-seeking, while unbiased beliefs may be closer to the truth, self-favoring beliefs can better serve other goals. The virtues of self-confidence and self-esteem are widely touted (Benabou and Tirole 2002). Parents who believe in their children care more for them, and the best salesmen believe in their product, whether it is good or bad. By thinking highly of himself, John may induce Mary to think more highly of John, making Mary more willing to associate with John.  Scientists with unreasonably optimistic beliefs about their research projects may work harder and thus better advance scientific knowledge (Everett 2001; Kitcher 1990). Instead of simply agreeing with some standard position, people can better show off their independence and intelligence by inventing original positions and defending them. In response to our informal queries, numerous academics have told us that trying to disagree less would feel dishonest, destroy their identity, make them less human, and risk paralyzing self-doubt.  Self-favoring priors can thus be “rational” in the sense of helping one to achieve familiar goals, even if they are not “rational” in the sense of helping one to achieve the best possible estimate of the true situation (Caplan 2000). _
  16. Alguien meta-racional, en cambio no estará en desacuerdo con otros meta-racionales.: Let us also call someone meta-rational if he is an honest truth-seeker who chooses his opinions as if he understands the basic theory of disagreement, and abides by the rationality standards that most people uphold, which seem to preclude self-favoring priors.  The theory of disagreement says that meta-rational people will not knowingly have selffavoring disagreements among themselves. They might have some honest disagreements, such as on values or on topics of fact where their DNA encodes relevant non-selffavoring attitudes. **But they will not have dishonest disagreements, i.e., disagreements directly on their relative ability, or disagreements on other random topics caused by their faith in their own superior knowledge or reasoning ability. **
  17. Finalmente, el por qué de la extensión de los desacuerdo es que la mayoría de la gente no es meta-racional. La gente no sólo busca que sus creencias sean ciertas.

Hanson argumenta en otro sitio que un prior racional debe ser consistente con creencias racionales sobre los procesos que han producido los priors de los demás.

La respuesta Huemeriana

Entonces llega Michael Huemer y dice lo siguiente (El artículo entero merece ser leído)

An agent-centered epistemic norm would be an epistemological principle requiring agents to assign different evidential value to their own experiences or other epistemically relevant states from the value they should assign to the qualitatively similar states of someone else.2 Suppose that any epistemic agent who satisfies condition C thereby has prima facie justification for believing P. If this source of justification is governed by an agent-neutral norm, then an agent who merely knows that someone else satisfies C would thereby have equal prima facie grounds for believing P. If, on the other hand, the source of justification is governed by an agent-centered norm, then such an agent might have less justification or even no justification at all for believing P, even prima facie. I shall call the view that all norms of epistemic justification are agent-neutral, “Agent Neutrality,” and I shall call the contrary view “Agent Centeredness”:

Agent Neutrality: Necessarily, for any S, T, and C, if S’s satisfying condition C would confer prima facie justification for S to believe that P, then S’s knowing that T satisfies C would confer equal prima facie justification for S to believe that P

Agent Centeredness: Possibly, for some S, T, and C, S’s satisfying condition C would confer prima facie justification for S to believe that P, but S’s knowing that T satisfies C would confer less prima facie justification or no prima facie justification for S to believe that P. [...]

This leads to a key, controversial implication of agent-centeredness, which differentiates agent-centered epistemological views from agentneutral views. Suppose two subjects each have perfect (that is, complete and absolutely certain) knowledge of one another’s epistemically relevant states (sensory experiences, memories, intuitions, or whatever is relevant to what one is justified in believing). Suppose that neither party makes any procedural error in forming beliefs: for instance, neither party makes any oversights or incorrect inferences, neither party incorrectly weighs two pieces of evidence, and neither party accepts premises he is not justified in accepting. Both parties form their beliefs by the methods one ought to use in forming beliefs. Could these individuals still end up with unresolvable differences of opinion? On the agent-neutral view, both parties must fully agree with one another on all factual questions, for they have the same available evidence and they weigh that evidence in the same way. On the agent-neutral view, though what evidence one has often differs from one person to another, the epistemic force of a given piece of evidence is not itself agent-relative. That is, for any given piece of evidence, there is an objective degree to which that evidence supports a given conclusion, which should guide the thinking of any person who is aware of that evidence. But for the agent-centrist, two parties could rationally assign different weights to the same piece of evidence, depending on whose evidence it was, even though both parties were equally certain of the existence of that evidence. This has the consequence that the two parties described above might rationally disagree after all is said and done. [...] According to one celebrated result, Bayesian agents with different evidence but the same prior probabilities should be able to reach agreement in posterior probabilities simply by repeatedly exchanging information as to their degrees of belief in various propositions, including information as to how each agent updates his subjective probabilities in the light of the other’s reports. My own view seems to fly in the face of this theorem, sinceI allow for rational, intractable disagreement, even for individuals with common prior probabilities. In fact, there is no need to invoke the theorem of the preceding paragraph, for my view flies in the face of a much more trivial theorem of Bayesian epistemology.I am willing to stipulate a case in which two rational agents have the same prior probabilities and each knows exactly what evidence the other has. (All the work of Aumann’s theorem is directed at getting two agents to knowledge of one another’s evidence.) In such a case, I maintain, there could still be intractable rational disagreement between the two parties. [...] Bayesian theorems concerning agreement, then, fail to undermine a reasonable agent-centered epistemology, becausethose theorems depend crucially on a classical foundationalist assumption that very few epistemologists find plausible any longer: the assumption that all justified belief rests on a foundation of true and indubitable evidence. Jeffreyan modifications to Bayesianism do not preserve the theorems concerning agreement, since they cannot guarantee that, in learning of someone else’s evidence, one must assign any credibility to that evidence. I do not claim that the agent-centered conception of evidence accounts for all or even most actual disagreement, nor that all or most disagreement is actually rational. Differing priors and outright irrationality may well explain much of the ongoing disagreement that we observe in philosophy and other areas. The fields of inquiry suffering from the most disagreement are likely to be ones where multiple factors contribute to differences of opinion. The agent-centered view offers for our consideration just one more cause of intractable philosophical disagreement.

El argumento de Hanson

En resumen, que puedes tener desacuerdo racional incluso si los priors son comunes y cada agente sabe la evidencia que tiene el otro. Simplemente saber que otro tiene evidencia de que la proposición P es cierta no es, per se, razón para que nos inclinemos siquiera a pensar que P es cierta. Hacen falta premisas auxiliares que nos inciten a pensar que el otro es una fuente fiable de justificación.

Podemos ahora reconstruir el argumento de Hanson y mostrar donde yerra

  1. Todo par de agentes estarán de acuerdo si (Premisa)
    1. Son racionales
    2. Aceptan la misma evidencia
    3. Son mutuamente conscientes de sus opiniones
  2. Si no estás de acuerdo con alguien, implica que alguna de las condiciones a-c no se están cumpliendo.
  3. En general, en los debates la condición c) se cumple (Premisa)
  4. No es razonable tener diferentes priors o evidencia. (Premisa)
  5. Por tanto, si hay desacuerdo, será porque al menos uno de los agentes no es racional. En tanto en un debate ambos agentes creen ser racionales, cada agente estará suponiendo que el otro es menos racional que uno mismo
  6. Afirmar que alguien es menos racional que uno mismo es faltar al respeto (Premisa)
  7. Por tanto, no estar de acuerdo con alguien es considerar que es menos racional que uno mismo
  8. Por tanto, no estar de acuerdo con alguien es faltarle al respeto

El argumento se cae porque las premisas 1,4 y 6 son cuestionables.

El punto más fácil para atacar el argumento es criticar 6: Pensar que otro es menos racional que uno mismo no es faltar al respeto. No más que considerar que otra persona es menos inteligente, alta, sana o cualquier otra. Eso son datos que podemos medir y determinar. Puede haber gente que se sienta insultada al decírsele que presenta una puntuación inferior en una escala comparativa, pero eso es cosa de la reacción de esa persona ante la escala, no de la existencia de la misma. Si lo fuera, que un profesor ponga notas diferentes a sus alumnos sería faltar al respeto a todos los que obtienen menos que quien ha sacado la máxima puntuación.

Pedofilia y respeto

En el caso del pedófilo, que recordemos era "_How exactly do you disagree with someone’s moral views without degrading them?  Can you really say pedophelia is disgusting without degrading pedophiles? "  _Decir que la pedofilia [2] es repugnante necesariamente falta al respeto de los pedófilos. Uno no puede estar en desacuerdo con las opiniones morales de otro sin faltar al respeto al otro.

Aquí he de -respetuosamente- discrepar de Hanson. No me parece un argumento nada bueno. Por un lado, decir que la pedofilia es repugnante no implica falta de respeto. Simplemente manifiesta que causa una reacción emocional adversa en el cerebro propio. Decirle a un pedófilo "Tus gustos son repugnantes!" es como decirle "El conocimiento de que tienes ciertos gustos causa en mi cerebro ciertas reacciones emocionales!". La palabra "repugnante" tiene más carga emocional, y por eso usarla puede llevar a herir sentimientos. ¿Pero a faltar al respeto?

Por otro lado, suponer que el desacuerdo moral proviene puramente de emociones necesita una argumentación adicional a favor del emotivismo moral. En tanto no sea cierto, un desacuerdo moral puede partir del mismo sitio del que podría partir cualquier otro desacuerdo: diferentes impresiones sobre lo que es el caso. No es algo particular de la moral, pensemos que hay gente que dice no saber si el mundo exterior existe o no, porque no tiene razón para fiarse de sus sentidos. Podríamos intentar corregir esas impresiones a partir del contraste con otras ideas, a través del diálogo y la lógica, pero eso no implica que el desacuerdo necesariamente tenga que desaparecer so pena de irracionalidad.

Estamos de acuerdo en estar en desacuerdo

La premisa 1 plantea otros problemas que son los que comenta Huemer: Supongamos que tenemos dos agentes racionales. Uno le dice al otro que cree que P es cierto con probabilidad de 1.0 (Es evidencia de que P). ¿Debe el segundo aceptar que P? Según Huemer no, porque la concepción Bayesiana de evidencia no es correcta: la evidencia que uno tiene nunca tiene probabilidad 1.0 (último párrafo de la última cita). Si entonces uno le dice a otro que P es cierto con probabilidad de 0.9999, el segundo ya no tiene por qué creer que P es cierto. Primero tendría que aceptar que el mecanismo que lleva al otro a decir eso es fiable. Es en base a eso a lo que podría incorporar el conocimiento ajeno al propio.

Creo que todo esto resultará más claro con un ejemplo [3]. Supongamos que un científico dice haber diseñado una máquina capaz de violar el segundo principio de la termodinámica, y que está seguro de ello con p=0.9. Nosotros, al oír su noticia le asignamos p=0.0001. El otro agente tiene evidencia de que funciona. Nosotros no. Por tanto, estamos en desacuerdo, y en tanto una p=0.9 sea congruente con negar o modificar la Física generalmente aceptada, es racional. Quizá no sea razonable rechazar partes de la disciplina científica que más consenso genera, pero no es irracional hacerlo. Con el científico hereje, podríamos o bien mantener nuestra p=0.0001 o ajustarla hacia p=0.9 para incorporar la información de que hay alguien que piensa que la Física está mal a nuestro conocimiento probabilistico. Si nos mantenemos en nuestros trece, abandonamos el bayesianismo. Hacer lo contrario se antoja de hecho imposible: Si tras haber estudiado debidamente la cuestión nos sigue pareciendo que p=0.0001, ¿Por qué vamos a ajustar hacia p=0.9? ¿Es irracional que consideremos que tenemos toda la razón, y que el violador del segundo principio no tiene nada de razón? Si ajustásemos, sería porque deja de parecernos que p=0.0001, y para que pasase esto necesitaríamos una razón para pensar que lo que piensa el científico es correcto. Pero entonces el hecho de que el científico crea que lo es, per se, no justificaría actualizar nuestra p. Y eso es abandonar a Bayes.

Conclusión

La mayor parte del desacuerdo se debe a sesgos y faltas de información. Hay campos donde esto es más común. Es más usual el desacuerdo en política, filosofía o economía (en ese orden) que en Física. Pero puede ocurrir que exista desacuerdo, teóricamente, aún entre agentes perfectamente racionales. Ser conscientes de esto debería llevarnos, primero, a tratar de pulirnos de sesgos y a adquirir información relevante en aquellos temas donde entablemos debate. Hemos de ser conscientes de nuestra falibilidad, y de que lo que hoy tenemos justificado creer que es cierto mañana puede no estarlo.

Nos queda el método científico y el debate argumentativo para zanjar controversias. Dos agentes que entiendan que pueden estar en desacuerdo por razones diversas no se están faltando al respeto. Deberían intentar localizar las causas del desacuerdo y ver si pueden ser resueltas refiriéndolas a otros puntos de acuerdo. No deberían enfadarse ni pensar mal del otro simplemente porque su opinión es diferente. El debate debería mantenerse en las ideas, no en las características de las personas que las sostienen, aunque no pocas veces atacar una idea sea atacar a su defensor. Las ideas tienen la manía de integrarse en nosotros mismos como parte de nuestra identidad. Es algo a combatir para facilitar cambiar unas por otras cuando sea pertinente.

La falta de respeto no es algo que se extraiga necesariamente del desacuerdo. Para faltar al respeto a alguien, uno tiene que menospreciarles como personas. Las verdaderas faltas de respeto son menos comunes de lo que habitualmente se piensa, siendo más normales los casos donde herir sentimientos, o enunciar vehementemente una opinión se considere faltar al respeto. En esos casos, podría estar mal hacerlo (En tanto se hace que otro se sienta mal), pero no integraría una falta de respeto.

Bibliografía

Aumann, Robert J. Agreeing to Disagree (1976)

Cowen, T. & Hanson, R. Are Disagreements Honest?

Cowen, T. Where do I disagree with Robin Hanson? (2007)

Hanson R. Agreeing to Disagree (2006)

Hanson, R. Uncommon priors require origin disputes (2006)

Hanson, R. Why Common Priors (2006)

Hanson, R. Disagreement is Disrespect (2008)

Huemer, M.  Epistemological Egoism and Agent-Centered Norms (2011)

McAllister, T. Aumann's agreement theorem (2011)

Web, Better Explained: An Intuitive (and Short) Explanation of Bayes's Theorem

Web, Wikipedia: Prior Probability

Web, Wikipedia: Müller-Lyer Illusion

[1] Sí, si dos personas no están de acuerdo, ambas se estarían faltando al respeto mutuamente, según Hanson. Lo cual no deja de tener cierta gracia.

[2] Para mejorar el argumento, supongamos que no es un pedófilo, sino un pederasta

[3] Otro ejemplo sería el de un Físico que niegue que el bosón de Higgs exista, porque le exija más allá del criterio 5-sigma habitual en el campo, y aceptado por el consenso de físicos. No sería irracional, pero sí irrazonable. Debates sobre qué es descubrimiento en Física y qué no existen.

Comments from WordPress

  • Probar una proposición negativa, o sobre Pikachu, dados y la existencia de Dios | Níntil 2015-08-18T19:04:10Z

    […] Con todo, el conocimiento es una creencia verdadera y justificada (Si no nos metemos en casos de Gettier). La verdad es absoluta, pero las creencias y la justificación son individuales. Siguiendo a Huemer, si alguien tras mucha reflexión y consideración de la evidencia intuye que Dios existe, tiene justificado creer que Dios existe aunque Dios no exista(3). Ídem para el ateo o el agnóstico. Los demás también tienen, tras estudiar las posiciones contrarias, justificado que los demás están equivocados y pueden estar racionalmente en desacuerdo. (También este otro post sobre desacuerdo racional) […]