Tendencia a confirmar el propio punto de vista.

Propensión a confirmar el propio punto de vista ( eng.  sesgo de confirmación ), o sesgo de confirmación  : la tendencia de una persona a buscar e interpretar dicha información o dar preferencia a la información que es consistente con su punto de vista, creencia o hipótesis [Comm. 1] [1] . Un tipo de sesgo cognitivo y sesgo en el razonamiento inductivo . El efecto es más fuerte para temas emocionalmente significativos y creencias profundamente arraigadas. Las personas también tienden a interpretar la evidencia ambigua de una manera que respalda su punto de vista.

La búsqueda, la interpretación y la memorización sesgadas explican efectos tales como el efecto de la polarización de los puntos de vista (cuando los desacuerdos se vuelven aún más fuertes, a pesar de que a las partes se les presentó la misma evidencia), el efecto de la perseverancia de la convicción ( ing.  creencia perseverancia , cuando la opinión permanece incluso entonces, cuando la evidencia que la respalda fue refutada), el efecto de primacía ( eng.  efecto de primacía , la tendencia a dar preferencia a la información recibida primero), la correlación ilusoria (la tendencia a ver la relación entre dos fenómenos o situaciones donde no hay ninguno).

Una serie de experimentos realizados en la década de 1960 mostró que las personas tienden a confirmar sus creencias. Investigaciones posteriores han dado lugar a revisar estos resultados y a sugerir que las personas tienden a probar sus hipótesis de manera sesgada, centrándose en una sola posibilidad e ignorando las alternativas. En algunas situaciones, esta tendencia puede sesgar las conclusiones de las personas. Las explicaciones de las distorsiones cognitivas observadas pueden ser el efecto de ilusiones y la capacidad humana limitada para procesar información. Otra explicación es que es más probable que las personas evalúen los posibles costos de admitir que están equivocados, en lugar de ver la situación de una manera neutral y científica.

El sesgo de confirmación afecta el exceso de confianza de una persona en sus propios juicios y puede mantener y reforzar las creencias cuando se obtiene evidencia de lo contrario. Estas distorsiones cognitivas se reflejan en malas decisiones tomadas en contextos políticos y organizacionales [2] [Comm. 2] .

Tipos

Propensión a la confirmación: efectos del procesamiento de la información que difieren del efecto de la confirmación del comportamiento; también se les llama " profecía autocumplida " cuando el comportamiento influenciado por las expectativas conduce al hecho de que estas expectativas están justificadas [3] . Algunos psicólogos utilizan el término "sesgo de confirmación" para referirse a la tendencia a evitar el rechazo de creencias al buscar, interpretar o recordar pruebas. Otros psicólogos limitan el uso de este término a la búsqueda selectiva de información [4] [Comm. 3] .

Búsqueda de información sesgada

Los experimentos han demostrado repetidamente que las personas tienden a evaluar una hipótesis u otra de manera unilateral, buscando evidencia que sea consistente con su hipótesis actual [6] [7] . En lugar de buscar con toda la evidencia disponible, formulan la pregunta de tal forma que obtienen una respuesta afirmativa que sustenta su hipótesis [8] . Están buscando las consecuencias que esperarían si su hipótesis fuera correcta, en lugar de las que ocurrirían si fuera errónea [8] . Por ejemplo, al usar preguntas de sí/no para averiguar el número que una persona cree que es tres, podría preguntar: "¿Es un número impar?" La gente prefiere este tipo de pregunta, llamada "prueba positiva", aunque una prueba negativa, como "¿Es este un número par?" proporcionaría exactamente la misma información [9] . Sin embargo, esto no significa que las personas estén buscando "pruebas" que garanticen una respuesta positiva. En los estudios en los que los participantes podían elegir tales "pseudopruebas" o pruebas de diagnóstico reales, preferían las de diagnóstico [10] [11] .

La preferencia por las "pruebas positivas" no es en sí misma un sesgo, ya que también pueden ser muy informativos [12] . Sin embargo, en combinación con otros efectos, dicha estrategia puede confirmar creencias o suposiciones existentes, independientemente de si son correctas [13] . En el mundo real, la evidencia suele ser compleja y mixta. Por ejemplo, las opiniones contradictorias sobre la misma persona pueden confirmarse centrándose en diferentes aspectos de su comportamiento. Por lo tanto, es probable que la búsqueda de evidencia para respaldar la hipótesis existente tenga éxito [13] . La redacción de la pregunta puede cambiar significativamente la respuesta [7] : en particular, las personas a las que se les preguntó "¿Está satisfecho con su vida personal?" muestran un mayor nivel de satisfacción que aquellos a quienes se les preguntó "¿No está satisfecho con su vida personal?" tu vida privada?" [14] .

Incluso un pequeño cambio en la redacción de una pregunta puede afectar la forma en que las personas buscan respuestas a partir de la información disponible y, por lo tanto, las conclusiones a las que llegan. Esto se ha demostrado en un caso ficticio de custodia de menores [15] . Los participantes leyeron que uno de los padres (A) era moderadamente capaz de actuar como tutor de muchas maneras. El segundo padre (B) tenía una mezcla de fuertes rasgos buenos y malos: una relación cercana con el niño, pero un trabajo que requería viajar por largos períodos de tiempo. Cuando se les preguntó a los encuestados "¿Qué padre debe tener la custodia del niño?", La mayoría de los participantes respondió B, considerando rasgos predominantemente positivos. Sin embargo, cuando se les preguntó “¿A qué progenitor se le debe negar la custodia del niño?” ya estaban evaluando rasgos negativos, y la mayoría respondió que se le debe negar a B, lo que implica que se le debe dar la custodia a A [15] .

Estudios similares han demostrado el sesgo de las personas en la búsqueda de información, pero también que este fenómeno puede limitarse a dar preferencia a las pruebas diagnósticas reales. En el experimento inicial, los participantes calificaron a otra persona en categorías de personalidad en una escala de introversión-extroversión basada en entrevistas. Podían elegir preguntas para la entrevista de la lista provista. Cuando se presentaba a la persona entrevistada como introvertida, los participantes elegían preguntas que incluían la introversión, como "¿Qué es lo que no te gusta de las fiestas ruidosas?" Cuando se presentaba a una persona así como extrovertida, casi todas las preguntas incluían extroversión, por ejemplo: “¿Qué harías para mejorar una fiesta aburrida?” Estas preguntas con subtexto no permitían (o daban poca oportunidad) al entrevistado de refutar la hipótesis sobre sí mismo [16] . En una versión posterior del experimento, a los participantes se les dio una serie de preguntas menos rígidas para elegir, como "¿Por qué evitas la interacción social?" [17] . Los participantes prefirieron estas preguntas más diagnósticas, mostrando solo un ligero sesgo a favor de las pruebas positivas. Esta tendencia hacia una preferencia por más pruebas diagnósticas ha sido confirmada por otros estudios [17] .

Los rasgos de personalidad influyen e interactúan con el proceso de búsqueda de información sesgada [18] . Las personas difieren en su capacidad para proteger sus relaciones de influencias externas en términos de percepción selectiva. La percepción selectiva ocurre cuando las personas buscan información que coincida en lugar de contradecir sus creencias personales [19] . Se llevó a cabo un experimento que examinó hasta qué punto las personas pueden refutar evidencia que contradice sus creencias personales. Para formular pruebas, es más probable que las personas más seguras busquen información que contradiga su opinión personal [18] . Las personas inseguras no buscan información contradictoria y prefieren información que respalde la verdad de su propia opinión. Las personas crean y evalúan testimonios en evidencia que está sesgada a favor de sus propias creencias y opiniones [20] . Los niveles más altos de confianza reducen el grado de preferencia por la información que respalda las propias creencias.

En otro experimento, los participantes tuvieron que completar una tarea compleja de búsqueda de reglas que involucraba el movimiento de objetos usando simulaciones por computadora [21] . Los objetos en la pantalla de la computadora se movían de acuerdo con ciertas reglas y los participantes tenían que descifrarlos. Los participantes podían "disparar" en la pantalla para probar sus hipótesis. Sin embargo, a pesar de los numerosos intentos durante el experimento de 10 horas, ninguno de los participantes adivinó las reglas del sistema. Predominantemente trataron de confirmar en lugar de refutar sus hipótesis y se mostraron reacios a considerar alternativas. Incluso después de recibir evidencia objetiva que contradecía sus hipótesis, a menudo repetían las mismas pruebas. A algunos participantes se les dijo la forma correcta de probar hipótesis, pero este conocimiento casi no tuvo efecto en sus acciones [21] .

Interpretación sesgada

“Las personas inteligentes creen en cosas extrañas porque tienen experiencia en defender creencias que se les ocurrieron por razones poco razonables”.

—Michael  Shermer [22]

El sesgo de confirmación no se limita a la búsqueda de evidencia. Incluso si dos personas tienen la misma información, la interpretación puede estar sesgada.

Un equipo de la Universidad de Stanford realizó un experimento con participantes que tenían fuertes creencias sobre la pena de muerte (la mitad de los participantes estaban a favor y la otra mitad en contra) [23] [24] . Cada participante leyó las descripciones de dos estudios: comparar los estados de EE. UU. con y sin la pena de muerte, y comparar las tasas de homicidio estatales antes y después de la introducción de la pena de muerte. Después de que los participantes leyeran un resumen de cada estudio, se les preguntó si sus creencias habían cambiado. Después de eso, leyeron una descripción más completa del procedimiento para realizar cada uno de los estudios y tuvieron que evaluar si el estudio se realizó correctamente y era convincente [23] . De hecho, ambos estudios fueron inventados, a la mitad de los participantes se les dijo que el primero de los estudios apoya la presencia de un efecto disuasorio, mientras que el segundo lo niega, mientras que a la otra mitad de los participantes se les dijo lo contrario [23] [24] .

Los participantes (tanto partidarios como opositores de la pena de muerte) informaron de pocos cambios en sus actitudes en la dirección de los hallazgos del primer estudio que leyeron. Después de leer una descripción más detallada de los procedimientos de los dos estudios, casi todos volvieron a sus creencias originales a pesar de la evidencia presentada, señalando detalles que apoyaban su punto de vista y rechazando todo lo que lo contradecía. Los participantes describieron los estudios que apoyaban su punto de vista como más fiables que los que lo contradecían, dando detalles de por qué pensaban así [23] [25] . Por ejemplo, un partidario de la pena de muerte, al describir un estudio que supuestamente negaba el efecto disuasorio, escribió: “El estudio no cubre un período de tiempo suficientemente largo”, mientras que un opositor al uso del mismo estudio dijo lo siguiente: “No se proporcionó evidencia sustancial que contradijera a los investigadores” [23] . Los resultados demostraron que las personas establecen altos estándares para probar una hipótesis que es contraria a sus creencias o expectativas actuales. Este efecto, conocido como “sesgo de no confirmación”, ha sido probado por otros experimentos [26] .

Otro estudio de interpretación sesgada se llevó a cabo durante la campaña presidencial de EE. UU. de 2004 e incluyó a participantes que eran firmes partidarios de cualquiera de los candidatos. A estos participantes se les mostraron pares de declaraciones aparentemente contradictorias del candidato republicano George W. Bush, o del candidato demócrata John Kerry, o de una figura pública políticamente neutral. También se les proporcionaron declaraciones que explicaban o eliminaban esta inconsistencia. Con base en estas tres piezas de información, los participantes tenían que decidir si la declaración era inconsistente [27] :1948 . Como resultado, se obtuvo una diferencia significativa en las calificaciones, siendo mucho más probable que los participantes calificaran la declaración del candidato "extranjero" como inconsistente [27] :1951 .

En este experimento, los participantes proporcionaron sus puntajes mientras estaban en una resonancia magnética que rastreaba su actividad cerebral. A medida que los participantes evaluaban las declaraciones contradictorias de su candidato, se despertaron los centros emocionales del cerebro. Y al evaluar otras declaraciones, esto no sucedió. Los experimentadores plantearon la hipótesis de que las diferentes respuestas al enunciado no se debían a errores pasivos de juicio, sino a que los participantes reducían activamente la disonancia cognitiva provocada por lo que habían leído sobre el comportamiento irracional o hipócrita de su candidato favorito [27] .

El sesgo en la interpretación de las creencias es muy estable, independientemente del nivel de inteligencia. Los participantes tomaron el SAT (Examen de Admisión a la Universidad de los Estados Unidos) para evaluar su nivel de inteligencia. Después de la prueba, se familiarizaron con la información sobre la seguridad de los automóviles, en la que los experimentadores cambiaron el país de origen del automóvil. Los participantes de Estados Unidos expresaron su opinión sobre los autos que deberían estar prohibidos en el país, en una escala de seis puntos, donde "uno" significaba "definitivamente sí" y "seis" significaba "definitivamente no". Primero, los participantes evaluaron si lanzarían un peligroso automóvil alemán en las calles de Estados Unidos y un peligroso automóvil estadounidense en las calles de Alemania. Los participantes señalaron que un automóvil alemán peligroso en Estados Unidos debería prohibirse antes que un automóvil estadounidense peligroso en Alemania. La diferencia en la inteligencia no jugó ningún papel en cómo los participantes calificaron la prohibición del automóvil [20] .

La interpretación sesgada no se limita a temas emocionalmente importantes. En otro experimento, a los participantes se les contó una historia sobre un robo. Pudieron evaluar la importancia de las pruebas para declarar a favor o en contra de la culpabilidad de una determinada persona. Cuando hicieron suposiciones sobre la culpa, calificaron las declaraciones que apoyaban su hipótesis como más importantes que las que las contradecían [28] .

Memoria sesgada

Incluso si las personas recopilan e interpretan la información de manera neutral, aún pueden recordarla de manera selectiva para reforzar sus expectativas. Este efecto se denomina "recuperación selectiva", "memoria de confirmación" o "memoria por acceso" [29] . Las teorías psicológicas sobre el recuerdo selectivo varían. La teoría de esquemas establece que la información que coincide con las expectativas previas se recuerda y retiene más fácilmente que la información que no coincide con ellas [30] . Algunos enfoques alternativos consideran que la información inesperada se resalta y, por lo tanto, se recuerda [30] . Los postulados de ambas teorías han sido confirmados bajo diversas condiciones experimentales y, por lo tanto, ninguna de las teorías ha obtenido todavía ventajas [31] .

En un estudio, los participantes leyeron información sobre una mujer que tenía una mezcla de comportamiento extrovertido e introvertido, después de lo cual tuvieron que recordar ejemplos de su extroversión e introversión. A un grupo se le dijo que era necesario evaluar su idoneidad para el puesto de bibliotecario y al otro, para el puesto de agente inmobiliario. Como resultado, se obtuvo una diferencia significativa entre lo que recordaban estos dos grupos: el primero recordaba ejemplos más introvertidos, y el segundo ejemplos más extrovertidos [32] .

El efecto del recuerdo selectivo también ha sido demostrado en experimentos que manipulan el atractivo de un tipo de personalidad [30] [33] . En uno de estos experimentos, a un grupo de participantes se le dio evidencia de que los extrovertidos tienen más éxito que los introvertidos, y al otro grupo se le dio evidencia de que tenían más éxito que los introvertidos. En el siguiente estudio, no relacionado formalmente con el primero, se pidió a ambos grupos que recordaran eventos en sus vidas cuando lideraban de manera introvertida o extravertida. Cada uno de los grupos proporcionó más ejemplos relacionados con el tipo más atractivo y recordó dichos casos más rápidamente [34] .

Los cambios en el estado emocional también pueden afectar el recuerdo [35] [36] . Los participantes calificaron cómo se sintieron cuando supieron por primera vez que OJ Simpson había sido absuelto del cargo de asesinato [35] . Describieron sus reacciones emocionales y el nivel de confianza en el veredicto una semana, dos meses y un año después del juicio. Los resultados indicaron que la evaluación de los participantes sobre la culpabilidad de Simpson varió con el tiempo. Cuantos más cambios en las opiniones de los participantes sobre el veredicto, menos estables eran sus recuerdos de sus reacciones emocionales primarias. Cuando los participantes recordaron sus respuestas emocionales primarias dos meses después y un año después, su evaluación de la respuesta pasada fue muy similar a su evaluación de la respuesta actual. Las personas muestran un sesgo de confirmación bastante significativo cuando discuten sus opiniones sobre temas controvertidos [20] . El recuerdo y la construcción de la experiencia se revisan en función de los estados emocionales correspondientes.

El sesgo de confirmación afecta la precisión del recuerdo [36] . En un estudio, viudas y viudos evaluaron la intensidad de su duelo seis meses y cinco años después de la muerte de su esposo o esposa. Los participantes notaron un mayor grado de duelo a los 6 meses en comparación con los 5 años. Sin embargo, cuando se les preguntó 5 años después cómo se sentían 6 meses después de la muerte de su pareja, la intensidad del dolor que recordaban estaba altamente correlacionada con sus sentimientos actuales. Se ha sugerido que los recuerdos emocionales se recuerdan en términos de su estado emocional actual, lo que significa que es probable que las personas utilicen su estado emocional actual para analizar cómo se sintieron en el pasado [35] .

Otro estudio ha demostrado cómo el recuerdo selectivo puede respaldar las creencias en la percepción extrasensorial [37] . A las personas que creían y no creían en tal percepción se les mostraron descripciones de experimentos con percepción extrasensorial. A la mitad de los participantes de cada uno de los dos grupos se les dijo que los resultados experimentales respaldaban la existencia de tal percepción, ya la otra mitad no. Después de eso, durante la prueba, la mayoría de los participantes recordaron correctamente el material que se les mostró, excepto aquellos que creyeron, que leyeron la evidencia de su inexistencia. Este grupo recordaba significativamente menos de la información dada, y algunos también recordaban incorrectamente los resultados como apoyo a la percepción extrasensorial [37] .

Efectos relacionados

Polarización de opiniones

Cuando las personas con puntos de vista opuestos interpretan la nueva información de manera sesgada, sus puntos de vista pueden divergir aún más. Esto se denomina “polarización de las relaciones” [38] . El efecto se demostró en un experimento en el que se extraían filas de canicas rojas y negras de una u otra caja oculta. Los participantes sabían que una de las cajas contenía 60% de canicas negras y 40% rojas, y la otra 40% negras y 60% rojas. Los experimentadores observaron lo que sucedía cuando se extraían por turnos bolas de diferentes colores, es decir, en una secuencia que no daba "ventaja" a ninguna de las casillas. A medida que se sacaba cada canica, se pedía a los participantes de uno de los grupos que dijeran en voz alta sus juicios sobre la probabilidad de que la canica se sacara de una u otra caja. Y estos participantes adquirieron más confianza en sus estimaciones con cada canica sucesiva, ya sea que pensaran que era más probable que la canica se sacara de una caja con un 60 % de negro o de una caja con un 60 % de rojo, su puntaje de probabilidad aumentó. A otro grupo de participantes se le pidió que marcara la estimación de probabilidad de qué caja se extrajo la serie de canicas solo después de que se completó la secuencia. No mostraron un efecto de polarización, lo que sugiere que no necesariamente ocurre cuando las personas simplemente tienen valores opuestos, sino solo cuando los nombran abiertamente [39] .

Un estudio menos abstracto fue el experimento de Stanford.[ aclarar ] con una interpretación sesgada en la que los participantes con posiciones fuertes sobre la pena de muerte fueron expuestos a evidencia experimental mixta. El veintitrés por ciento de los participantes informaron que sus creencias aumentaron y este cambio estuvo altamente correlacionado con sus actitudes iniciales [23] . En experimentos posteriores, los participantes también informaron que sus pensamientos se agudizaron después de recibir información ambigua, sin embargo, la comparación de su relación antes y después de recibir nueva evidencia no mostró cambios significativos, lo que puede indicar que los cambios autoevaluados en realidad pueden no existir [26] . [38] [40] . Con base en estos experimentos, Dianna Kuhn y Joseph Lao concluyeron que la polarización es un fenómeno real, pero está lejos de ser inevitable y solo ocurre en un pequeño número de casos. Descubrieron que tal prejuicio está motivado no solo por la consideración de evidencia mixta, sino simplemente por pensar en tal pregunta [38] .

Charles Taber y Milton Lodge argumentaron que el resultado del equipo de Stanford era difícil de replicar porque la evidencia utilizada en los experimentos posteriores era demasiado abstracta o poco clara para generar una respuesta emocional. La investigación de Taber y Lodge utilizó los temas emocionalmente cargados del control de armas y la acción afirmativa en los Estados Unidos [26] . Midieron las actitudes de los participantes hacia estas preguntas antes y después de leer la evidencia de cada lado del debate. Dos grupos de participantes demostraron la polarización de las relaciones: personas con fuertes opiniones previas sobre estos temas y políticamente inteligentes. Para parte de este estudio, los participantes eligieron qué fuentes de información leer de una lista preparada por científicos. Por ejemplo, podrían leer evidencia de control de armas de la Asociación Nacional del Rifle y la Coalición Brady contra las Armas. Incluso después de recibir instrucciones de ser neutrales, era más probable que los participantes eligieran evidencia que respaldara su relación existente. Esta búsqueda sesgada de información se ha correlacionado con el efecto de polarización [26] .

El "efecto inverso" es un término que se aplica a una situación en la que, al testificar en contra de sus creencias, las personas pueden abandonar los testimonios y adquirir más confianza [41] [42] . El término fue utilizado por primera vez por Brandon Nian y Jason Reifler [43] .

Persistencia de creencias desacreditadas

Las creencias pueden resistir las más fuertes objeciones lógicas o empíricas. Pueden sobrevivir e incluso intensificarse sobre la base de la evidencia que la mayoría de los observadores imparciales creen que debería debilitar tales creencias. Incluso pueden sobrevivir a la destrucción completa de su base de evidencia original”.

—  Lee Ross y Craig Anderson [44]

Los sesgos de confirmación se pueden utilizar para explicar por qué ciertas creencias persisten cuando su evidencia inicial desaparece [45] . Esta persistencia de creencias se demostró en una serie de experimentos que utilizaron el llamado "paradigma del informe": (1) los participantes leen sobre evidencia falsa para una hipótesis, se mide el cambio en sus actitudes; (2) luego se les explica en detalle cuál fue la manipulación de la evidencia ("desacreditar"), y se mide nuevamente el cambio en sus actitudes para ver si sus puntos de vista han regresado al nivel inicial [44] .

El resultado general de estos experimentos es que al menos parte de la creencia original permanece después de tal "desacreditación" [46] . En un experimento, se pidió a los participantes que distinguieran entre notas de suicidio reales y falsas. Las respuestas de los científicos a las opiniones de los participantes en el experimento se dieron al azar: algunos dijeron que acertaron bien, otros que acertaron mal. E incluso después de que a los participantes se les informara en detalle sobre el experimento y la aleatoriedad de las respuestas, los participantes todavía estaban influenciados por las respuestas que se les dieron: continuaron pensando que eran mejores o peores que el promedio en tales tareas, dependiendo de qué. respuesta que recibieron originalmente [47] .

En otro estudio, los participantes leyeron las evaluaciones de desempeño de dos bomberos y sus reacciones a una prueba de aversión al riesgo [44] . Estos datos se fabricaron de tal manera que mostraban una correlación negativa o positiva: algunos de los participantes proporcionaron información de que el bombero al que le gusta correr riesgos tuvo más éxito que el cauteloso, mientras que otros no [48] . Incluso si estos datos fueran reales, dos calificaciones son evidencia científica muy pobre para sacar conclusiones sobre todos los bomberos. Sin embargo, para los participantes fueron subjetivamente convincentes [48] . Cuando se les dijo a los participantes que los datos estaban inventados, su creencia en la conexión disminuyó, pero se mantuvo en aproximadamente la mitad del efecto original [44] . Las entrevistas posteriores al experimento confirmaron que los participantes entendieron la "desacreditación" y la tomaron en serio; ellos le creyeron, pero rechazaron esta información por ser inconsistente con sus creencias personales [48] .

Preferencia por información anterior

Los experimentos han demostrado que la información tiene más peso si se recibe antes, incluso cuando el orden en que se recibe no es importante. Por ejemplo, las personas se forman impresiones más positivas de alguien como "razonable, trabajador, impulsivo, crítico, obstinado, envidioso" que cuando las mismas características se presentan en orden inverso [49] . Este efecto de "primacía irracional" es independiente del efecto de primacía, donde los elementos anteriores (palabras) en una secuencia dejan una huella de memoria más grande [49] . Una explicación para este efecto es el sesgo de interpretación: cuando una persona ve la evidencia inicial, forma una hipótesis de trabajo que afecta la forma en que interpreta toda la información posterior [45] .

Una demostración de primacía irracional utilizó fichas de colores que se "sacaron" de dos cajas. Se informó a los participantes sobre la distribución de los colores en estos cuadros y se les pidió que calificaran la probabilidad de que se sacara una ficha de cada uno de estos cuadros [49] . De hecho, las fichas se dispusieron en un orden especial: las primeras treinta se sacaron de la primera caja y las siguientes treinta de la segunda [45] . La secuencia fue generalmente neutral, por lo que tiene sentido que ambas casillas fueran igualmente probables. Sin embargo, después de 60 sorteos, los participantes en el experimento prefirieron el cuadro que aparecía con más frecuencia en los primeros 30 sorteos [49] .

Otro experimento incluyó una presentación de diapositivas del mismo sujeto que estaba muy borrosa al principio, y el enfoque mejoraba en cada diapositiva posterior [49] . Después de cada diapositiva, los participantes tenían que expresar su suposición sobre el objeto representado. Los participantes cuyas conjeturas iniciales fueron incorrectas persistieron con esas conjeturas incluso cuando la imagen ya estaba tan enfocada que otras personas reconocieron fácilmente el elemento [45] .

Conexión ilusoria entre eventos

La correlación ilusoria es la tendencia a ver conexiones en un conjunto de datos que en realidad faltan [50] . Esta tendencia se demostró por primera vez en una serie de experimentos a fines de la década de 1960 [51] . En un experimento, los participantes leyeron varios materiales prácticos de investigación psicológica que incluían respuestas a una prueba de Rorschach . Llegaron a la conclusión de que es más probable que los homosexuales vean nalgas u otras figuras sexualmente ambiguas en las figuras de prueba que los heterosexuales. De hecho, todos estos materiales de investigación fueron completamente inventados y, en una versión del experimento, resultó que los materiales en general muestran que los homosexuales ven estas cifras en las pruebas con menos frecuencia que los heterosexuales [50] . En la encuesta, un grupo de psicoanalistas experimentados repitió las mismas conclusiones ilusorias sobre la relación entre la reacción a los dibujos y la homosexualidad [50] [51] .

Otro estudio registró los síntomas y las condiciones climáticas de los pacientes con artritis durante 15 meses. Casi todos los pacientes informaron que su dolor estaba relacionado con el clima, aunque la correlación real fue cero [52] .

Este efecto es un tipo de interpretación sesgada (sesgada), donde la evidencia objetivamente neutral o negativa se interpreta para respaldar las creencias existentes. También se asocia con sesgos en el comportamiento de prueba de hipótesis [53] . Al evaluar la relación entre dos eventos, como la enfermedad y el mal tiempo, las personas confían mucho en el número de casos positivos-positivos: en este ejemplo, dolor y mal tiempo al mismo tiempo. Prestan relativamente poca atención a otros tipos de observaciones (ausencia de dolor y/o buen tiempo) [54] . Esto es similar a esperar buenos resultados en una prueba de hipótesis, pero también puede ser indicativo de recuerdo selectivo, donde las personas sienten que dos eventos están relacionados, ya que es más fácil recordar instancias en las que sucedieron al mismo tiempo [53] .

Historia

Observaciones informales

Mucho antes de los estudios psicológicos, la tendencia a confirmar la mención de este fenómeno se puede encontrar en escritores, por ejemplo, en el antiguo historiador griego Tucídides (c. 460 a. C. - c. 395 a. C.), el poeta italiano Dante Alighieri (1265-1321 ), el filósofo y científico inglés Francis Bacon (1561-1626) [55] y el escritor ruso León Tolstoi (1828-1910). Tucídides en La Historia de la Guerra del Peleponesio escribió: "... porque es costumbre de la humanidad someterse a la esperanza irreflexiva de lo que quiere, y usar su propio juicio para descartar lo que no le gusta" [56] . En el poema La Divina Comedia, Santo Tomás de Aquino advierte a Dante cuando se encuentran en el Paraíso: "aquellos que rápidamente forman sus propias opiniones pueden errar, y entonces el apego a la propia opinión ata y encierra la mente" [57] .

Bacon en su New Organon escribió [58] :

Entender a una persona cuando ya ha llegado a algún pensamiento... atrae todas las cosas para apoyarlo y armonizarlo. Y aunque hay una gran cantidad y peso de argumentos por otro lado, los descuida o los desprecia, o, por alguna razón, los descarta o los rechaza.

Bacon escribió que la evaluación sesgada de la evidencia impulsa "todo prejuicio, en astrología, sueños, signos, justicia divina y similares" [58] .

En el ensayo "¿Qué es el arte?" L. N. Tolstoi escribió [59] :

Sé que la mayoría de las personas que no solo son consideradas inteligentes, sino realmente personas muy inteligentes, capaces de comprender los más difíciles razonamientos científicos, matemáticos, filosóficos, muy rara vez pueden comprender incluso la verdad más simple y obvia, pero tal, como un resultado de lo cual hay que admitir que los compuestos a veces con gran esfuerzo hacen un juicio sobre un tema, un juicio del que están orgullosos, que han enseñado a otros, sobre la base de la cual han arreglado toda su vida - que este el juicio puede ser falso.

La investigación de Wason sobre la prueba de hipótesis

El término "sesgo de confirmación" fue acuñado por el psicólogo inglés Peter Veyson [60] . En un experimento publicado en 1960, pidió a los participantes que formularan una regla sobre los triples de números. Al principio, se les dijo que los tres (2,4,6) coincidían con la regla. Los participantes podían proponer sus propios triples, y el experimentador les decía si ese triple coincidía con la regla o no [61] [62] .

Aunque la regla en realidad sonaba como "cualquier secuencia ascendente", era muy difícil de adivinar para los participantes. Al mismo tiempo, a menudo proponían reglas más complejas, por ejemplo: “el segundo número es el promedio entre el primero y el tercero” [61] . Los participantes solo probaron triples para un ejemplo positivo, es decir, aquellos que coincidieron con su hipótesis sobre la regla. Por ejemplo, si les pareció que la regla sonaba como “el siguiente número es dos más que el anterior”, entonces sugirieron un triple que la respondiera, por ejemplo (11,13,15), y no un triple que lo contradijera, por ejemplo (11 ,12,19) [63] .

Wason creía en el falsacionismo, según el cual la prueba científica de una hipótesis es un intento serio de refutarla y, por lo tanto, interpretó los resultados del experimento de tal manera que los participantes prefirieron la confirmación a la refutación, de ahí el término "sesgo de confirmación" [Comm . 4] [64] . También utilizó el sesgo de confirmación para explicar los resultados de su experimento de tarea de elección [65] . En esta tarea, los participantes recibieron información parcial sobre un conjunto de elementos y tuvieron que determinar qué información adicional necesitaban para decir si la regla condicional ("Si A, entonces B") se aplica a este conjunto. Estudios repetidos han demostrado que las personas se desempeñan muy mal en varias formas de esta prueba, en la mayoría de los casos ignorando la información que podría anular la regla [66] [67] .

Críticas a Kleiman y Ha

En un artículo de 1987, Joshua Kleiman y Ha Young Won argumentaron que los experimentos de Wason de hecho no mostraban un sesgo de confirmación. En cambio, interpretaron los resultados como una tendencia de las personas a realizar pruebas que son consistentes con la hipótesis de trabajo [68] y llamaron a esto una "estrategia de prueba positiva" [7] . Esta estrategia es un ejemplo de heurística: un "atajo" cuando se discute, que no es ideal, pero es fácil de implementar [1] . Para su estándar en la prueba de hipótesis, Kleiman y Ha no utilizaron el falsacionismo, sino la probabilidad bayesiana y la teoría de la información. De acuerdo con estas ideas, cada respuesta a una pregunta proporciona una cantidad diferente de información, dependiendo de las creencias existentes de la persona. Por lo tanto, la comprobación científica de la hipótesis es lo que debe aportar más información. Dado que la composición de la información depende de las probabilidades iniciales, una prueba positiva puede ser muy informativa o poco informativa. Kleiman y Ha argumentaron que cuando las personas piensan en problemas realistas, buscan una respuesta específica con una probabilidad inicial baja. En este caso, las pruebas positivas suelen ser más informativas que las negativas [12] . Sin embargo, en el problema de búsqueda de la regla de Wason, la respuesta "tres números en orden ascendente" es muy amplia, por lo que es poco probable que las pruebas positivas proporcionen respuestas informativas. Kleiman y Ha respaldaron su análisis con un ejemplo de un experimento que utilizó las etiquetas "DAX" y "MED" en lugar de "corresponde a la regla" y "no corresponde a la regla". Esto evitó la suposición de que el objetivo es encontrar una regla con baja probabilidad. En esta versión del experimento, los participantes tuvieron mucho más éxito [69] [70] .

A la luz de esta y otras críticas, el enfoque de la investigación se ha desplazado de la confirmación versus la refutación a si las personas prueban las hipótesis de manera informativa o de manera no informativa pero positiva. La búsqueda de un sesgo de confirmación "real" ha llevado a los psicólogos a considerar la amplia gama de implicaciones del procesamiento humano de la información [71] .

Explicaciones

El sesgo de confirmación a menudo se define como el resultado de estrategias automáticas e involuntarias en lugar de un engaño deliberado [72] [73] . Según Robert McCune, la mayor parte del procesamiento de la información sesgada se produce como resultado de una combinación de mecanismos "fríos" (cognitivos) y "calientes" (motivados, emocionales) [74] .

Las explicaciones cognitivas del sesgo de confirmación se basan en las limitaciones de la capacidad humana para procesar tareas complejas y los atajos correspondientes en el camino utilizado, y se denominan heurísticas [75] . Por ejemplo, las personas pueden evaluar la fiabilidad de la evidencia utilizando la heurística de disponibilidad, es decir, con qué facilidad se les ocurre una idea [76] . También es posible que las personas solo puedan concentrarse en un pensamiento sobre un tema determinado a la vez, por lo que les resulta difícil probar hipótesis alternativas en paralelo [77] . Otra heurística es la estrategia de prueba positiva que descubrieron Kleiman y Ha, es decir, cuando las personas prueban una hipótesis al examinar aquellas instancias en las que esperan que ocurra una característica o evento que respaldan. Esta heurística evita la tarea difícil o imposible de averiguar qué tan diagnóstica sería cada posible pregunta. Sin embargo, tal heurística no es completamente confiable, por lo que las personas no ven desafíos a sus creencias existentes [12] [78] .

Las explicaciones motivacionales para el sesgo de confirmación incluyen la influencia del deseo en la creencia, a veces denominada "pensamiento deseoso" [79] [80] . Se sabe que las personas prefieren los pensamientos agradables a los desagradables de muchas maneras (el "principio de Polyanna") [81] . Cuando se aplica a argumentos o fuentes de evidencia, esta actitud puede explicar por qué es más probable que uno crea en las conclusiones deseadas [79] . De acuerdo con los resultados de los experimentos que manipularon la conveniencia de una conclusión, las personas exigen una alta calidad de evidencia para las ideas desagradables y aceptan un estándar bajo para las ideas que favorecen. En otras palabras, para algunas ideas preguntan “¿Puedo creer esto?” y para otras “¿Tengo que creer esto?”. [82] [83] . Aunque la consistencia es una característica deseable de una relación, un deseo excesivo de consistencia es una fuente potencial de sesgo porque puede evitar que una persona evalúe neutralmente información nueva e inesperada [79] . El psicólogo social Ziva Kunda combinó la teoría cognitiva y la motivacional, argumentando que la motivación crea prejuicio, pero son los factores cognitivos los que determinan su magnitud [84] .

La explicación en términos de beneficios y costos sugiere que las personas no solo prueban hipótesis de manera neutral, sino que estiman el "costo" de varios errores [85] . Usando las ideas de la psicología evolutiva, James Friedrich sugiere que al probar una hipótesis, una persona primero trata de evitar los errores más "costosos" y no encontrar la verdad. Por ejemplo, los empleadores pueden hacer preguntas unilaterales al entrevistar a un empleado potencial, ya que su atención se centra en identificar a los candidatos inadecuados [86] . El refinamiento de esta teoría por parte de Jacob Trope y Akiva Lieberman sugiere que una persona está comparando dos tipos diferentes de errores: aceptar una hipótesis falsa y rechazar una hipótesis verdadera. Por ejemplo, si alguien subestima la honestidad de un amigo, puede sospechar de él y perder su amistad; sobreestimar su honestidad también puede ser costoso, pero comparativamente menos. En este caso, la salida racional es buscar, evaluar y recordar la honestidad del amigo en perjuicio de su propio interés [87] . Cuando la primera impresión de una persona es que es introvertida o extrovertida, las preguntas correspondientes a esa impresión parecen más empáticas [88] . Por lo tanto, al hablar con un supuesto introvertido, parece que una demostración de mejores habilidades sociales es preguntar "¿Te sientes incómodo en situaciones sociales?" en lugar de "¿Te gustan las fiestas ruidosas?". El vínculo entre el sesgo de confirmación y las habilidades sociales fue respaldado por un estudio en el que se presentó a los estudiantes a otras personas. Los estudiantes con un alto grado de autocontrol, que eran más sensibles a su entorno y a las normas sociales, hacían preguntas más relevantes cuando hablaban con profesores universitarios de alto nivel que cuando se reunían con compañeros [88] .

Los psicólogos Jennifer Lerner y Philip Tetlock distinguen dos tipos diferentes de procesos de pensamiento. El pensamiento explicativo considera neutralmente diferentes puntos de vista y trata de proporcionar todas las posibles objeciones a una determinada posición, mientras que el pensamiento confirmatorio trata de justificar (confirmar) un determinado punto de vista. Lerner y Tetlock encuentran que cuando las personas esperan tener que justificar su posición ante otras personas cuya posición ya conocen, tienden a asumir una posición similar a la de esas personas y luego utilizan el pensamiento afirmativo para reforzar su propia posición. Sin embargo, si el exterior es demasiado agresivo o crítico, las personas abandonan por completo el razonamiento y simplemente tratan de establecer su posición sin justificación [89] . Lerner y Tetlock argumentan que las personas se obligan a pensar crítica y lógicamente solo cuando saben de antemano que tendrán que explicar sus pensamientos a otras personas bien informadas que están realmente interesadas en la verdad y cuyas opiniones aún no conocen [90]. ] . Dado que todas estas condiciones rara vez coinciden, según los psicólogos mencionados, la mayoría de las veces las personas utilizan el pensamiento afirmativo [91] .

Impacto

Para finanzas

Debido al sesgo de confirmación, los inversores pueden actuar con exceso de confianza, ignorando cualquier señal de que sus estrategias conducirán a una pérdida de dinero [5] [92] . En estudios de mercados de valores políticos (electorales) (es decir, mercados vinculados a resultados electorales), los inversores ganaron más dinero si no estaban sesgados. Por ejemplo, los participantes que reaccionaron neutralmente en lugar de entusiasmarse con el desempeño de un candidato tenían más probabilidades de obtener ganancias [93] . Para neutralizar la influencia que confirma el sesgo, los inversores pueden intentar adoptar temporalmente el punto de vista opuesto [94] . En una técnica, tienen que imaginar que su inversión ha fracasado por completo y explicarse a sí mismos por qué podría suceder esto [5] .

Para la salud física y mental

El psicólogo Raymond Nickerson culpa al sesgo de confirmación de los procedimientos médicos ineficientes utilizados durante siglos antes del advenimiento de la medicina científica [95] . Si el paciente se recuperaba, los médicos consideraban que el tratamiento había tenido éxito en lugar de probar explicaciones alternativas, como el curso completo de la enfermedad [95] . La generalización sesgada también es un factor en el atractivo actual de la medicina alternativa , cuyos defensores aceptan la evidencia anecdótica de sus efectos positivos pero son muy críticos con la evidencia científica [96] [97] [98] .

La psicoterapia cognitiva, desarrollada por Aaron Beck a principios de la década de 1960, se ha convertido recientemente en un enfoque popular. [99] . Según Beck, el procesamiento de información sesgado es un factor en la depresión [100] . Su enfoque enseña a las personas a tratar la información con imparcialidad en lugar de reforzar selectivamente las perspectivas negativas de la vida [55] . Según la investigación, las fobias y la hipocondría también utilizan el sesgo de confirmación cuando una persona se enfrenta a información aterradora o peligrosa [101] .

Para política y jurisprudencia

Nickerson argumenta que los juicios en contextos legales y políticos a veces están subconscientemente sesgados y, por lo tanto, se prefieren a conclusiones que ya han sido aceptadas por jueces, jurados o gobiernos [102] . Debido a que la evidencia o el testimonio en un juicio con jurado pueden ser complejos, ambiguos y los jurados a menudo llegan a su veredicto bastante temprano en el proceso, se espera un efecto polarizador. Esta hipótesis (que los miembros del jurado se vuelven más categóricos en sus puntos de vista a medida que el tribunal considera pruebas o pruebas) se confirmó en experimentos con "tribunales de juego" (tribunales ficticios que se utilizan para practicar los discursos de los abogados o para enseñar a los estudiantes sobre la práctica judicial) [103] [104] . El sesgo de confirmación tiene un impacto tanto en el sistema de justicia penal investigativo en el derecho romano-germánico como en el sistema de justicia penal acusatorio en el derecho anglosajón [105] .

El sesgo de confirmación puede ser un factor en la creación o prolongación de conflictos, desde disputas cargadas de emociones hasta guerras: al interpretar la evidencia y la evidencia a su favor, cada lado del conflicto puede confiar demasiado en que su posición es más fuerte [106] . Por otro lado, el sesgo de confirmación puede llevar a ignorar o malinterpretar las señales de un conflicto incipiente o naciente. Por ejemplo, los psicólogos Stuart Sutherland y Thomas Kida consideraron que el almirante estadounidense Husband Kimmel mostró un sesgo de confirmación cuando ignoró los primeros signos del ataque japonés a Pearl Harbor [66] [107] .

El profesor estadounidense Philip Tetlock ha estado investigando a expertos políticos durante dos décadas (se recopilaron 28 mil pronósticos) y descubrió que, en general, sus pronósticos diferían ligeramente del azar y eran peores que un algoritmo informático. Dividió a los expertos en "zorros", que sostenían una variedad de hipótesis, y "erizos", que eran más dogmáticos. En general, los pronósticos hedgehog fueron menos precisos. Tetlock atribuyó su fracaso al sesgo de confirmación, en particular, su incapacidad para utilizar nueva información que contradecía sus teorías [108] .

Para la investigación paranormal

Un factor en la atracción de las "lecturas" psíquicas es que aquellos que consultan a los psíquicos utilizan el sesgo de confirmación para reconciliar las declaraciones del psíquico con sus propias vidas [109] . Cuando un psíquico dice muchas declaraciones ambiguas, le da al cliente más oportunidades de encontrar una coincidencia. Esta es una de las técnicas de "lectura en frío" donde el psíquico puede proporcionar una descripción subjetivamente impresionante del cliente sin ninguna información primaria sobre él [109] . El conocido ilusionista y escéptico canadiense-estadounidense James Randi comparó el descifrado de la "lectura" y el relato del cliente y observó que el cliente tenía un pronunciado recuerdo selectivo del "golpe" [110] .

Una ilustración llamativa de la propensión a confirmar en el mundo real (y no en el laboratorio) Nickerson considera la piramidología numerológica (la práctica de encontrar valores y conocimiento en las proporciones de las pirámides egipcias) [111] . Dado que hay un número significativo de medidas que se pueden hacer, por ejemplo, en la Pirámide de Keops, y muchas formas de combinarlas e interpretarlas, aquellos que miren los datos de forma selectiva encontrarán una consistencia impresionante de casi el 100%, por ejemplo, con mediciones de la Tierra [111] .

Para la ciencia

El pensamiento científico se diferencia de otros tipos de pensamiento en la búsqueda no sólo de confirmación, sino también de refutación de la evidencia [112] . Sin embargo, más de una vez en la historia de la ciencia, los científicos se han resistido a nuevos descubrimientos como resultado de la interpretación selectiva o la ignorancia de datos "inaceptables" [112] . Estudios previos han demostrado que la evaluación de la calidad de la investigación científica es particularmente sensible al sesgo de confirmación, es decir, que más de una vez los científicos calificaron los estudios que coincidían con las creencias previas de los científicos mejor que los que no lo hacían [73] [113] [114] . Aunque dentro del marco del pensamiento científico, si la pregunta que se investiga es más significativa, el diseño del experimento es más correcto y los datos se describen clara y completamente, entonces los resultados son importantes para la comunidad científica y no deben considerarse con prejuicio, independientemente de que correspondan o no a las teorías vigentes [114] .

En el contexto de la investigación científica, los sesgos de confirmación pueden respaldar teorías o programas de investigación incluso si la evidencia que los respalda es insuficiente o contradictoria [66] [115] ; esto sucedió especialmente a menudo en el campo de la parapsicología [116] .

El sesgo de confirmación de un experimentador puede afectar potencialmente los datos que informa. Los datos que van en contra de sus expectativas pueden ser "descartados" más fácilmente, lo que lleva al llamado efecto "caja de documentos" [117] . Para superar esta tendencia, la formación de los científicos incluye formas de prevenir este sesgo. Por ejemplo, cosas como el diseño experimental para muestras de control aleatorias (combinadas con su revisión sistemática) tienen como objetivo minimizar las fuentes de sesgo [117] [118] . También se cree que el proceso social de revisión por pares es una forma de reducir la influencia de los sesgos de los científicos individuales [119] , aunque la revisión por pares en sí misma puede verse afectada por dichos sesgos [114] [120] . Por lo tanto, el sesgo de confirmación puede ser particularmente dañino para las evaluaciones objetivas de aquellos resultados que no se ajustan a la hipótesis, ya que las personas sesgadas pueden considerar que tales resultados son inherentemente débiles y no pensar en la necesidad de reconsiderar sus creencias [113] . Los científicos que proponen algo nuevo a menudo se enfrentan a la resistencia de la comunidad científica, y los estudios con resultados controvertidos suelen recibir críticas devastadoras [121] .

Para la autoevaluación

Los psicólogos sociales han identificado dos tendencias en la forma en que las personas buscan o interpretan información sobre sí mismas: la autoverificación, el deseo de reforzar o reforzar la autoestima existente, y la autovalorización, el deseo de recibir una respuesta positiva [122] . Ambas tendencias se realizan con la implicación de la propensión a la confirmación. En los experimentos, cuando las personas recibían una auto-reacción que contradecía su autoestima, era menos probable que le prestaran atención o la recordaran que cuando recibían una reacción de confirmación [123] [124] [125] . Redujeron el impacto de dicha información al interpretarla como poco confiable [123] [126] [127] . Experimentos similares han demostrado que las personas prefieren las reacciones positivas y las personas que responden adecuadamente a las negativas [122] .

Véase también

Comentarios

  1. El genetista David Perkins acuñó el término "sesgo de mi lado" al referirse a una preferencia por "mi" lado de un problema. ( Barón 2000 , p. 195)
  2. Texto del artículo citado: Tuchman (1984) describió la forma en que se realiza el sesgo de confirmación en el proceso de justificar la política adoptada por el gobierno: "Si se ha adoptado e implementado alguna política, todas las acciones subsiguientes son esfuerzos para justificarla (p. 245), sobre el ejemplo de la política que condujo a la participación de EE.UU. en la guerra de Vietnam, donde el ejército estadounidense estuvo presente durante 16 años, a pesar de la abundante evidencia de que esto no estaba justificado desde el principio.

    La terquedad, una fuente de autoengaño, es un factor que tiene un papel sorprendentemente grande en el gobierno. Consiste en evaluar una situación en términos de opiniones previamente mantenidas sobre ella, ignorando por completo o rechazando cualquier punto de vista opuesto. Es actuar como le plazca sin dejarse distraer por los hechos. Su pináculo es la afirmación de los historiadores sobre Felipe II de Habsburgo, cuya obstinación superó la obstinación de todos los gobernantes: "ningún ejemplo del fracaso de su política puso en duda su fe en la perfección inherente de esta política". (pág. 7)

    La estupidez, en su opinión, es una forma de autoengaño, caracterizada por "la insistencia en pensamientos que han arraigado, independientemente de la evidencia en contrario". (pág. 209)

  3. "Sesgo de asimilación" es otro término utilizado para perjudicar la información. ( Resucitado y Gilovich 2007 , p. 113)
  4. También usó el término "advertencia de verificación". ( Poletiek 2001 , p. 73)

Notas

  1. 1 2 Plus, 1993 , pág. 233
  2. Nickerson, Raymond S. Sesgo de confirmación  : un fenómeno omnipresente en muchas formas  // Revisión de psicología general : diario. - 1998. - junio ( vol. 2 , no. 2 ). - pág. 175-220 . -doi : 10.1037 / 1089-2680.2.2.175 .
  3. Darley, John M. & Gross, Paget H. (2000), A Hypothesis-Confirming Bias in Labeling Effects, en Stangor, Charles, Estereotipos y prejuicios: lecturas esenciales , Psychology Press, p. 212, ISBN 978-0-86377-589-5 , OCLC 42823720 
  4. Resucitado y Gilovich, 2007
  5. 1 2 3 Zweig, Jason (19 de noviembre de 2009), How to Ignore the Yes-Man in Your Head , Dow Jones & Company , < http://online.wsj.com/article/SB10001424052748703811604574533680037778184.html > . Consultado el 13 de junio de 2010. Archivado el 1 de marzo de 2010 en Wayback Machine . 
  6. Nickerson, 1998 , págs. 177–178
  7. 1 2 3 Kunda, 1999 , págs. 112–115
  8. 12 Barón, 2000 , págs. 162–164
  9. Kida, 2006 , págs. 162–165
  10. Devine, Patricia G.; Hirt, Edward R. & Gehrke, Elizabeth M. (1990), Estrategias de diagnóstico y confirmación en la prueba de hipótesis de rasgos , Journal of Personality and Social Psychology (Asociación Americana de Psicología). — T. 58 (6): 952–963, ISSN 1939-1315 , DOI 10.1037/0022-3514.58.6.952 
  11. Trope, Yaacov & Bassok, Miriam (1982), Estrategias de confirmación y diagnóstico en la recopilación de información social , Journal of Personality and Social Psychology (American Psychological Association) . — T. 43 (1): 22–34, ISSN 1939-1315 , DOI 10.1037/0022-3514.43.1.22 
  12. 1 2 3 Klayman, Joshua & Ha, Young-Won (1987), Confirmación, Desconfirmación e Información en Pruebas de Hipótesis , Revisión Psicológica (Asociación Estadounidense de Psicología). — V. 94 (2): 211–228, ISSN 0033-295X , doi : 10.1037/0033-295X.94.2.211 , < http://www.stats.org.uk/statistical-inference/KlaymanHa1987.pdf > . Consultado el 14 de agosto de 2009. Archivado el 1 de octubre de 2011 en Wayback Machine . 
  13. 1 2 Oswald y Grosjean, 2004 , págs. 82–83
  14. Kunda, Ziva; Fong, GT; Sanitoso, R. & Reber, E. (1993), Preguntas direccionales, autoconcepciones directas, Revista de Psicología Social Experimental (Sociedad de Psicología Social Experimental). — V. 29: 62–63, ISSN 0022-1031  vía Fine, 2006 , págs. 63–65
  15. 1 2 Shafir, E. (1993), Elegir versus rechazar: por qué algunas opciones son mejores y peores que otras , Memory and Cognition T. 21 (4): 546–556, PMID 8350746 , DOI 10.3758/bf03197186  vía Fine, 2006 , págs. 63–65
  16. Snyder, Mark & ​​​​Swann, Jr., William B. (1978), Procesos de prueba de hipótesis en la interacción social , Journal of Personality and Social Psychology (Asociación Americana de Psicología). - T. 36 (11): 1202-1212 , DOI 10.1037/0022-3514.36.11.1202  vía Poletiek, 2001 , p. 131
  17. 1 2 Kunda, 1999 , págs. 117–118
  18. 1 2 Albarracín, D.; Mitchell, AL El papel de la confianza defensiva en la preferencia por la información proactitudinal: cómo creer que uno es fuerte a veces puede ser una debilidad defensiva   // Personality and Social Psychology Bulletin : diario. - 2004. - vol. 30 , núm. 12 _ - Pág. 1565-1584 . -doi : 10.1177/ 0146167204271180 .
  19. Fisher, P.; Fischer, Julia K.; Aydin, Nilufer; Frey, Dieter. Las fuentes de información social físicamente atractivas conducen a una mayor exposición selectiva a la información  // Psicología social  básica y aplicada : diario. - 2010. - Vol. 32 , núm. 4 . - Pág. 340-347 . -doi : 10.1080/ 01973533.2010.519208 .
  20. 1 2 3 Stanovich, KE; Oeste, RF; Toplak, ME  Myside Bias, pensamiento racional e inteligencia  // Direcciones actuales en ciencia psicológica : diario. - 2013. - Vol. 22 , núm. 4 . - pág. 259-264 . -doi : 10.1177/ 0963721413480174 .
  21. 1 2 Mynatt, Clifford R.; Doherty, Michael E. y Tweney, Ryan D. (1978), Consecuencias de la confirmación y disconformidad en un entorno de investigación simulado , Quarterly Journal of Experimental Psychology , volumen 30 (3): 395–406 , DOI 10.1080/00335557843000007 
  22. Kida, 2006 , pág. 157
  23. 1 2 3 4 5 6 Señor, Charles G.; Ross, Lee & Lepper, Mark R. (1979), Asimilación sesgada y polarización de actitudes: los efectos de las teorías anteriores sobre la evidencia considerada posteriormente , Journal of Personality and Social Psychology (Asociación Estadounidense de Psicología). — T. 37 (11): 2098–2109, ISSN 0022-3514 , DOI 10.1037/0022-3514.37.11.2098 
  24. 12 Barón, 2000 , págs. 201–202
  25. Vyse, 1997 , pág. 122
  26. 1 2 3 4 Taber, Charles S. & Lodge, Milton (julio de 2006), Motivated Skepticism in the Evaluation of Political Beliefs , American Journal of Political Science (Midwest Political Science Association) . — T. 50 (3): 755–769, ISSN 0092-5853 , DOI 10.1111/j.1540-5907.2006.00214.x 
  27. 1 2 3 Westen, Drew; Blagov, Pavel S.; Harenski, Keith & Kilts, Clint (2006), Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 US Presidential Election , Journal of Cognitive Neuroscience (Massachusetts Institute of Technology) . - V. 18 (11): 1947–1958, PMID 17069484 , doi : 10.1162/jocn.2006.18.11.1947 , < http://psychsystems.net/lab/06_Westen_fmri.pdf > . Consultado el 14 de agosto de 2009. Archivado el 24 de marzo de 2012 en Wayback Machine . 
  28. Gadenne, V. & Oswald, M. (1986), Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen [Formación y alteración de tendencias confirmatorias durante la prueba de hipótesis], Zeitschrift für experimentelle und angewandte Psychologie T. 33: 360–374  vía Oswald & Grosjean, 2004 , p. 89
  29. Hastie, Reid & Park, Bernadette (2005), La relación entre la memoria y el juicio depende de si la tarea del juicio está basada en la memoria o en línea, en Hamilton, David L., Cognición social: lecturas clave , Nueva York: Psicología Prensa, pág. 394, ISBN 0-86377-591-8 , OCLC 55078722 
  30. 1 2 3 Oswald & Grosjean, 2004 , págs. 88–89
  31. Stangor, Charles & McMillan, David (1992), Memoria para información congruente con las expectativas e incongruente con las expectativas: Una revisión de las literaturas sobre desarrollo social y social , Boletín Psicológico (Asociación Estadounidense de Psicología). — T. 111 (1): 42–61 , DOI 10.1037/0033-2909.111.1.42 
  32. Snyder, M. & Cantor, N. (1979), Probando hipótesis sobre otras personas: el uso del conocimiento histórico , Journal of Experimental Social Psychology Vol. 15(4): 330–342 , DOI 10.1016/0022-1031(79) )90042-8  vía Goldacre, 2008 , pág. 231
  33. Kunda, 1999 , págs. 225–232
  34. Sanitioso, Rasyid; Kunda, Ziva & Fong, GT (1990), Reclutamiento motivado de recuerdos autobiográficos , Journal of Personality and Social Psychology (Asociación Americana de Psicología). — T. 59 (2): 229–241, ISSN 0022-3514 , PMID 2213492 , DOI 10.1037/0022-3514.59.2.229 
  35. 1 2 3 Levine, L.; Prohaska, V.; Burgess, S.L.; Arroz, JA; Laulhere, TM Recordando emociones pasadas:  el papel de las evaluaciones actuales  // Cognición y emoción : diario. - 2001. - vol. 15 _ - pág. 393-417 . -doi : 10.1080/ 02699930125955 .
  36. 12 Más seguro , MA; Bonanno, GA; Field, N. "Nunca fue tan malo": recuerdo sesgado del duelo y ajuste a largo plazo a la muerte de un cónyuge  //  Memoria: diario. - 2001. - vol. 9 , núm. 3 . - pág. 195-203 . -doi : 10.1080/ 09658210143000065 .
  37. 1 2 Russell, Dan & Jones, Warren H. (1980), Cuando la superstición falla: Reacciones a la refutación de creencias paranormales , Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) . - V. 6 (1): 83–88, ISSN 1552-7433 , DOI 10.1177/014616728061012  a través de Vyse, 1997 , pág. 121
  38. 1 2 3 Kuhn, Deanna & Lao, Joseph (marzo de 1996), Efectos de la evidencia sobre las actitudes: ¿es la polarización la norma? , Ciencias Psicológicas (Sociedad Americana de Psicología) . — V. 7 (2): 115–120 , DOI 10.1111/j.1467-9280.1996.tb00340.x 
  39. Barón, 2000 , pág. 201
  40. Miller, AG; Mc Hoskey, JW; Bane, CM & Dowd, T. G. (1993), El fenómeno de la polarización de la actitud: el papel de la medida de respuesta, el extremo de la actitud y las consecuencias conductuales del cambio de actitud informado , Journal of Personality and Social Psychology vol. 64 (4): 561–574 , DOI 10.1037/0022-3514.64.4.561 
  41. efecto contraproducente . El diccionario del escéptico . Consultado el 26 de abril de 2012. Archivado desde el original el 6 de febrero de 2017.
  42. Silverman, Craig El efecto contraproducente . Revista de periodismo de Columbia (17 de junio de 2011). - “Si tu reconciliación más fuerte está respaldada por la suma de pruebas de lo contrario, tu reconciliación está respaldada”. Consultado el 1 de mayo de 2012. Archivado desde el original el 22 de diciembre de 2016.
  43. Nyhan, Brendan; Reifler, Jason.  Cuando las correcciones fallan: la persistencia de las percepciones políticas erróneas  // Comportamiento político : diario. - 2010. - Vol. 32 , núm. 2 . - P. 303-330 . -doi : 10.1007/ s11109-010-9112-2 . Archivado desde el original el 30 de julio de 2014.
  44. 1 2 3 4 Ross, Lee & Anderson, Craig A. (1982), Deficiencias en el proceso de atribución: Sobre los orígenes y el mantenimiento de evaluaciones sociales erróneas, en Kahneman, Daniel; Slovic, Paul & Tversky, Amos, Juicio bajo incertidumbre: heurística y sesgos , Cambridge University Press, p. 129–152, ISBN 978-0-521-28414-1 , OCLC 7578020 
  45. 1 2 3 4 Nickerson, 1998 , pág. 187
  46. Kunda, 1999 , pág. 99
  47. Ross, Lee; Lepper, Mark R. & Hubbard, Michael (1975), Perseverancia en la autopercepción y la percepción social: Procesos de atribución sesgados en el paradigma del debriefing , Journal of Personality and Social Psychology (Asociación Estadounidense de Psicología). — T. 32 (5): 880–892, ISSN 0022-3514 , PMID 1185517 , DOI 10.1037/0022-3514.32.5.880  a través de Kunda, 1999 , p. 99
  48. 1 2 3 Anderson, Craig A.; Lepper, Mark R. & Ross, Lee (1980), Perseverancia de las teorías sociales: el papel de la explicación en la persistencia de la información desacreditada , Revista de personalidad y psicología social (Asociación Americana de Psicología). — T. 39 (6): 1037–1049, ISSN 0022-3514 , DOI 10.1037/h0077720 
  49. 1 2 3 4 5 Barón, 2000 , págs. 197–200
  50. 1 2 3 Fine, 2006 , págs. 66–70
  51. 12 Plus , 1993 , págs. 164–166
  52. Redelmeir, D.A. & Tversky, Amos (1996), Sobre la creencia de que el dolor de la artritis está relacionado con el clima , Actas de la Academia Nacional de Ciencias Vol. 93 (7): 2895–2896 , DOI 10.1073/pnas.93.7.2895  a través de Kunda, 1999 , pág. 127
  53. 1 2 Kunda, 1999 , págs. 127–130
  54. Además, 1993 , págs. 162–164
  55. 12 Barón, 2000 , págs. 195–196.
  56. Tucídides . La Guerra del Peloponeso, Libro 4, capítulo 108, sección 4 Archivado el 4 de febrero de 2017 en Wayback Machine .
  57. Alighieri, Dante. Paradiso canto XIII: 118-120.
  58. 1 2 Bacon, Francisco (1620). Novum Órgano . reimpreso en Burtt, E.A., ed. (1939), Los filósofos ingleses de Bacon a Mill , Nueva York: Random House, p. 36  . Cit. por Nickerson, 1998 , pág. 176.
  59. León Tolstoi . Qué es el arte Archivado el 6 de septiembre de 2014 en Wayback Machine (1899).
  60. Gale, Maggie & Ball, Linden J. (2002), ¿El sesgo de positividad explica los patrones de rendimiento en la tarea 2-4-6 de Wason?, en Gray, Wayne D. & Schunn, Christian D., Proceedings of the Twenty-Fourth Conferencia Anual de la Sociedad de Ciencias Cognitivas , Routledge, p. 340, ISBN 978-0-8058-4581-5 , OCLC 469971634 
  61. 1 2 Wason, Peter C. (1960), Sobre el fracaso para eliminar hipótesis en una tarea conceptual , Quarterly Journal of Experimental Psychology (Psychology Press) . — T. 12 (3): 129–140, ISSN 1747-0226 , DOI 10.1080/17470216008416717 
  62. Nickerson, 1998 , pág. 179
  63. Lewicka, 1998 , pág. 238
  64. Oswald y Grosjean, 2004 , págs. 79–96
  65. Wason, Peter C. (1968), Razonamiento sobre una regla , Quarterly Journal of Experimental Psychology (Psychology Press) . — T. 20 (3): 273–28, ISSN 1747-0226 , DOI 10.1080/14640746808400161 
  66. 1 2 3 Sutherland, Stuart (2007), Irracionalidad (2.ª ed.), Londres: Pinter and Martin, p. 95–103, ISBN 978-1-905177-07-3 , OCLC 72151566 
  67. Barkow, Jerome H.; Cosmides, Leda & Tooby, John (1995), La mente adaptada: psicología evolutiva y la generación de cultura , Oxford University Press US, p. 181–184, ISBN 978-0-19-510107-2 , OCLC 33832963 
  68. Oswald y Grosjean, 2004 , págs. 81–82, 86–87
  69. Lewicka, 1998 , pág. 239
  70. Tweney, Ryan D.; Doherty, Michael E.; Worner, Winifred J. & Pliske, Daniel B. (1980), Estrategias de descubrimiento de reglas en una tarea de inferencia , The Quarterly Journal of Experimental Psychology (Psychology Press). — V. 32 (1): 109–123, ISSN 1747-0226 , DOI 10.1080/00335558008248237  (Experimento IV)
  71. Oswald y Grosjean, 2004 , págs. 86–89
  72. Oswald y Grosjean, 2004
  73. 1 2 Hergovich, Schott y hamburguesa, 2010
  74. Maccoun, 1998
  75. Friedrich, 1993 , pág. 298
  76. Kunda, 1999 , pág. 94
  77. Nickerson, 1998 , págs. 198–199
  78. Nickerson, 1998 , pág. 200
  79. 1 2 3 Nickerson, 1998 , pág. 197
  80. Barón, 2000 , pág. 206
  81. Matlin, Margaret W. (2004), Principio de Pollyanna, en Pohl, Rüdiger F., Cognitive Illusions: A Handbook on Falacies and Biases in Thinking, Judgement and Memory , Hove: Psychology Press, p. 255–272, ISBN 978-1-84169-351-4 , OCLC 55124398 
  82. Dawson, Érica; Gilovich, Thomas & Regan, Dennis T. (octubre de 2002), Razonamiento motivado y rendimiento en la tarea de selección de Wason , Boletín de personalidad y psicología social (Sociedad para la personalidad y la psicología social). — T. 28(10): 1379–1387, doi : 10.1177/014616702236869 , < http://comp9.psych.cornell.edu/sec/pubPeople/tdg1/Dawson.Gilo.Regan.pdf > . Consultado el 30 de septiembre de 2009. Archivado el 12 de junio de 2015 en Wayback Machine . 
  83. Ditto, Peter H. & Lopez, David F. (1992), Escepticismo motivado: uso de criterios de decisión diferenciales para conclusiones preferidas y no preferidas , Revista de personalidad y psicología social (Asociación Americana de Psicología). — T. 63 (4): 568–584, ISSN 0022-3514 , DOI 10.1037/0022-3514.63.4.568 
  84. Nickerson, 1998 , pág. 198
  85. Oswald y Grosjean, 2004 , págs. 91–93
  86. Friedrich, 1993 , págs. 299, 316–317
  87. Trope, Y. & Liberman, A. (1996), Prueba de hipótesis sociales: mecanismos cognitivos y motivacionales, en Higgins, E. Tory & Kruglanski, Arie W., Social Psychology: Handbook of basic Principles , Nueva York: Guilford Press, ISBN 978-1-57230-100-9 , OCLC 34731629  a través de Oswald & Grosjean, 2004 , págs. 91–93
  88. 1 2 Dardenne, Benoit & Leyens, Jacques-Philippe (1995), Confirmation bias as a Social Skill , Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) . — T. 21 (11): 1229–1239, ISSN 1552-7433 , DOI 10.1177/01461672952111011 
  89. Shanteau, James. Perspectivas emergentes en la investigación de juicios y decisiones  (inglés) / Sandra L. Schneider. - Cambridge [ua]: Cambridge University Press , 2003. - Pág. 445. - ISBN 0-521-52718-X . Archivado el 26 de enero de 2020 en Wayback Machine .
  90. Haidt, Jonathan. La mente justa: por qué la gente buena está dividida por la política y la  religión . — Nueva York: Pantheon Books, 2012. - Pág. 1473-1474. - ISBN 0-307-37790-3 .
  91. Lindzey, editado por Susan T. Fiske, Daniel T. Gilbert, Gardner. El manual de psicología social  (neopr.) . — 5to. - Hoboken, NJ: Wiley, 2010. - Pág. 811. - ISBN 0-470-13749-5 . Archivado el 26 de enero de 2020 en Wayback Machine .
  92. Pompian, Michael M. (2006), Finanzas conductuales y gestión de la riqueza: cómo crear carteras óptimas que tengan en cuenta los sesgos de los inversores , John Wiley and Sons, p. 187–190, ISBN 978-0-471-74517-4 , OCLC 61864118 
  93. Hilton, Denis J. (2001), La psicología de la toma de decisiones financieras: aplicaciones al análisis de negociación, trato y inversión , Journal of Behavioral Finance (Instituto de Behavioral Finance) . — Vol. 2 (1): 37–39, ISSN 1542-7579 , DOI 10.1207/S15327760JPFM0201_4 
  94. Krueger, David & Mann, John David (2009), El lenguaje secreto del dinero: cómo tomar decisiones financieras más inteligentes y vivir una vida más rica , McGraw Hill Professional, p. 112–113, ISBN 978-0-07-162339-1 , OCLC 277205993 
  95. 12 Nickerson , 1998 , pág. 192
  96. Goldacre, 2008 , pág. 233
  97. Singh, Simon & Ernst, Edzard (2008), ¿Truco o tratamiento?: Medicina alternativa a prueba , Londres: Bantam, p. 287–288, ISBN 978-0-593-06129-9 
  98. Atwood, Kimball (2004), Naturopatía, pseudociencia y medicina: mitos y falacias frente a la verdad, Medscape General Medicine vol . 6 (1): 33 
  99. Neenan, Michael & Dryden, Windy (2004), Terapia cognitiva: 100 puntos y técnicas clave , Psychology Press, p. ix, ISBN 978-1-58391-858-6 , OCLC 474568621 
  100. Blackburn, Ivy-Marie & Davidson, Kate M. (1995), Terapia cognitiva para la depresión y la ansiedad: guía del profesional (2 ed.), Wiley-Blackwell, p. 19, ISBN 978-0-632-03986-9 , OCLC 32699443 
  101. Harvey, Allison G.; Watkins, Edward y Mansell, Warren (2004), Procesos conductuales cognitivos en los trastornos psicológicos: un enfoque transdiagnóstico de la investigación y el tratamiento , Oxford University Press, pág. 172–173, 176, ISBN 978-0-19-852888-3 , OCLC 602015097 
  102. Nickerson, 1998 , págs. 191–193
  103. Myers, DG & Lamm, H. (1976), El fenómeno de la polarización grupal , Psychological Bulletin T. 83(4): 602–627 , DOI 10.1037/0033-2909.83.4.602  vía Nickerson, 1998 , pp. 193-194
  104. Halpern, Diane F. (1987), Pensamiento crítico en el currículo: una breve edición de pensamiento y conocimiento , Lawrence Erlbaum Associates, p. 194, ISBN 978-0-8058-2731-6 , OCLC 37180929 
  105. Roach, Kent (2010), Convicciones erróneas: temas contradictorios e inquisitoriales, North Carolina Journal of International Law and Commercial Regulation Vol . 35 
  106. Barón, 2000 , págs. 191.195
  107. Kida, 2006 , pág. 155
  108. Tetlock, Philip E. (2005), Juicio político experto: ¿Qué tan bueno es? ¿Cómo podemos saber? , Princeton, Nueva Jersey: Princeton University Press, pág. 125–128, ISBN 978-0-691-12302-8 , OCLC 56825108 
  109. 1 2 Smith, Jonathan C. (2009), Pseudociencia y afirmaciones extraordinarias de lo paranormal: kit de herramientas de un pensador crítico , John Wiley and Sons, p. 149–151, ISBN 978-1-4051-8122-8 , OCLC 319499491 
  110. Randi, James (1991), James Randi: investigador psíquico , Boxtree, p. 58–62, ISBN 978-1-85283-144-8 , OCLC 26359284 
  111. 12 Nickerson , 1998 , pág. 190
  112. 12 Nickerson , 1998 , págs. 192–194
  113. 12 Köhler , 1993
  114. 1 2 3 Mahoney, 1977
  115. Proctor, Robert W. & Capaldi, E. John (2006), Por qué importa la ciencia: comprensión de los métodos de investigación psicológica , Wiley-Blackwell, p. 68, ISBN 978-1-4051-3049-3 , OCLC 318365881 
  116. Sternberg, Robert J. (2007), Pensamiento crítico en psicología: realmente es crítico, en Sternberg, Robert J.; Roediger III, Henry L. & Halpern, Diane F., Critical Thinking in Psychology , Cambridge University Press, p. 292, ISBN 0-521-60834-1 , OCLC 69423179 
  117. 1 2 Shadish, William R. (2007), Critical Thinking in Quasi-Experimentation, en Sternberg, Robert J.; Roediger III, Henry L. & Halpern, Diane F., Critical Thinking in Psychology , Cambridge University Press, p. 49, ISBN 978-0-521-60834-3 
  118. Jüni P. , Altman DG , Egger M. Revisiones sistemáticas en el cuidado de la salud: evaluación de la calidad de los ensayos clínicos controlados.  (Inglés)  // BMJ (Ed. de investigación clínica). - 2001. - vol. 323, núm. 7303 . - Pág. 42-46. —PMID 11440947 .
  119. Shermer, Michael (julio de 2006), El cerebro político , Scientific American , ISSN 0036-8733 , < http://www.scientificamerican.com/article.cfm?id=the-political-brain > . Consultado el 14 de agosto de 2009. Archivado el 19 de marzo de 2011 en Wayback Machine . 
  120. Emerson GB , Warme WJ , Wolf FM , Heckman JD , Brand RA , Leopold SS Pruebas para detectar la presencia de sesgo de resultados positivos en la revisión por pares: un ensayo controlado aleatorizado.  (Inglés)  // Archivos de medicina interna. - 2010. - Vol. 170, núm. 21 . - Pág. 1934-1939. -doi : 10.1001 / archinternmed.2010.406 . —PMID 21098355 .
  121. Horrobin, 1990
  122. 1 2 Swann, William B.; Pelham, Brett W. & Krull, Douglas S. (1989), ¿Una fantasía agradable o una verdad desagradable? Reconciliación de la automejora y la autoverificación , Revista de personalidad y psicología social (Asociación Americana de Psicología). — T. 57 (5): 782–791, ISSN 0022–3514 , PMID 2810025 , DOI 10.1037/0022-3514.57.5.782 
  123. 1 2 Swann, William B. & Read, Stephen J. (1981), Procesos de autoverificación: cómo sostenemos nuestras autoconcepciones , Journal of Experimental Social Psychology (Academic Press) . — V. 17 (4): 351–372, ISSN 0022–1031 , DOI 10.1016/0022-1031(81)90043-3 
  124. Story, Amber L. (1998), Autoestima y memoria para comentarios de personalidad favorables y desfavorables, Boletín de personalidad y psicología social (Sociedad de personalidad y psicología social). — V. 24 (1): 51–64, ISSN 1552-7433 , DOI 10.1177/0146167298241004 
  125. Blanco, Michael J.; Brockett, Daniel R. & Overstreet, Belinda G. (1993), Sesgo confirmatorio en la evaluación de la información de la prueba de personalidad: ¿Soy realmente ese tipo de persona? , Revista de Psicología de Consejería (Asociación Americana de Psicología). — V. 40 (1): 120–126, ISSN 0022-0167 , DOI 10.1037/0022-0167.40.1.120 
  126. Swann, William B. & Read, Stephen J. (1981), Adquirir el autoconocimiento: la búsqueda de comentarios que se ajusten , Journal of Personality and Social Psychology (Asociación Americana de Psicología) . — T. 41 (6): 1119–1128, ISSN 0022–3514 , DOI 10.1037/0022-3514.41.6.1119 
  127. Shrauger, J. Sidney & Lund, Adrian K. (1975), Autoevaluación y reacciones a las evaluaciones de otros , Journal of Personality (Duke University Press) . — V. 43 (1): 94–108, PMID 1142062 , DOI 10.1111/j.1467-6494.1975.tb00574 

Bibliografía