El espejo inclinado, el lector invisible: sesgo ideológico en la investigación científica

Fecha:

El reanálisis de George J. Borjas y Nate Breznau revela mucho sobre el camino oculto que convierte datos en evidencia.

Imagina que los datos son una estatua en el centro de una plaza: el mismo objeto, el mismo pedestal. Decenas de equipos reciben la misma tarea: fotografiarla para responder a la misma pregunta.

La estatua no cambia; cambia la fotografía. Lente, encuadre, exposición, filtro y, sobre todo, lo que entra en la imagen y lo que queda fuera. En la ciencia empírica, esas decisiones se llaman variables, muestras, especificaciones, modelos, pero hacen el mismo trabajo silencioso: vuelven el mundo legible como “evidencia”.

El artículo “Ideological bias in the production of research findings”, en Science Advances, sugiere que en temas políticamente cargados los a priori (preferencias, expectativas) pueden adherirse a esas elecciones de oficio: cómo se operacionaliza un concepto, qué casos se incluyen, qué controles se consideran necesarios, qué modelo “parece” apropiado. Así, resultados distintos pueden surgir del mismo conjunto de datos, sin fraude ni números inventados.

La fricción no está necesariamente en la honestidad, sino en el proceso; una cadena de decisiones defendibles que convierte un banco de datos en evidencia y, a veces, la evidencia en espejo. Eso es lo que muestra el reanálisis del experimento BRW: con los mismos datos y la misma pregunta, equipos distintos recorren caminos distintos, y la ideología puede aparecer antes del último párrafo, en la ingeniería misma del análisis.

La pregunta, entonces, no es si existe sesgo, sino cómo se organiza: qué filtros metodológicos, institucionales y retóricos hacen que ciertos resultados parezcan más robustos, más publicables, más citables y, por eso, más “reales”. No solo qué “muestra” la estatua, sino también qué fotografías aprendemos a llamar evidencia.

Antes de la primera regresión

En fotografía, dos imágenes pueden hablar menos de la estatua que del gesto del fotógrafo: una lente aplana el fondo, otra lo deforma; un encuadre vuelve protagonista un detalle, otro deja que el contexto se disuelva en la periferia. Nada de eso implica engaño: implica elección. Y las elecciones —aunque sean defendibles— tienen consecuencias.

En ciencia ocurre algo parecido. Un conjunto de datos no ofrece un solo ángulo: abre un abanico de rutas plausibles (cómo medir un concepto, qué unidades entran, qué controles se vuelven “pertinentes”, qué modelo parece “apropiado”). Borjas y Breznau hacen visible ese recorrido en un experimento colaborativo raro, BRW. 

En un reanálisis publicado el 1 de enero de 2026, vuelven a ese dispositivo: 71 equipos (158 investigadores) frente al mismo banco de datos y la misma pregunta sobre inmigración y apoyo a programas sociales (el welfare state). Tras replicar un resultado previo, los equipos extendieron el análisis con amplia libertad metodológica.

La materia prima también era común: cinco olas del ISSP (1985–2016) con medidas actualizadas de inmigración. Pero el camino hacia la evidencia quedó abierto. Antes de modelar, a los participantes se les pidió que declararan su punto de partida: ¿endurecer o relajar las leyes migratorias en su país? 

La pregunta metacientífica deja entonces de ser curiosidad: si estos a priori se alinean con los resultados, ¿por qué decisiones intermedias, muestras, controles, operacionalizaciones se convierten en “evidencia”?

Aquí ayuda otra metáfora: las proyecciones cartográficas. El planeta es el mismo, pero cada proyección redistribuye el mundo y decide qué parece grande o periférico. “Controlar” estadísticamente la proyección y concluir que no hubo distorsión es, para Borjas y Breznau, confundir ruido con mecanismo: las elecciones de especificación no son un ajuste externo; son endógenas al proceso. 

Lo que la discusión pide no es cinismo, sino luz: cuando el camino se muestra (alternativas, curvas de especificación, reanálisis), la ciencia se acerca menos a un retrato definitivo y más a un método público para ordenar el desacuerdo y reducir la incertidumbre.

Cuando 71 equipos responden la misma pregunta y discrepan

BRW se diseñó para hacer visible la distancia entre el dato y la conclusión: qué ocurre cuando muchas manos competentes toman el mismo banco de datos y avanzan por rutas distintas. Borjas y Breznau retoman este experimento en su artículo de Science Advances y plantean una pregunta incómoda: ¿pueden los a priori de los investigadores asociarse con el tipo de estimación que llega al lector incluso sin fraude, sin errores gruesos, sin una “mano” visible torciendo el número?

La escena es rara por su claridad: 71 equipos (158 investigadores) reciben los mismos datos y la misma hipótesis de que la inmigración reduce el apoyo a las políticas del Estado de bienestar. Trabajan sin coordinación, con amplia libertad para decidir mediciones, países, olas de encuesta, controles y estructura estadística. Antes de modelar, declaran su postura sobre lo que debe ocurrir con la política migratoria en su país (endurecer o relajar las leyes), una variable que parece lateral pero que, en el reanálisis, se vuelve clave: no para leer intenciones, sino para ver si las creencias previas se alinean con las decisiones finales de especificación.

El resultado es un multiverso: los equipos estiman 1.253 modelos comparables mediante una métrica común, el AME. La distribución se agrupa cerca de cero, pero tiene colas: en los extremos, el propio artículo da la escala (p10 = −0,071; p90 = 0,052) lo suficientemente amplia como para alimentar lecturas públicas opuestas. 

Y ahí está el punto provocador: no solo que las estimaciones varían, sino que la variación tiene forma, un patrón que se aprecia al mirar la constelación completa, no una estrella aislada.

Dónde se inclinan los resultados

La variación, por sí sola, no es la historia. La pregunta es si esa variación tiene firma, si se alinea de manera repetible con algo que los investigadores traen consigo antes de abrir la planilla.

El hallazgo central de Borjas y Breznau es directo: la posición ideológica de los equipos se asocia sistemáticamente con la dirección de las estimaciones. Equipos más proinmigración tienden a reportar efectos más positivos; los antiinmigración, más negativos. 

Lo inquietante no es el “qué”, sino el “cómo”. La diferencia emerge porque equipos distintos eligen especificaciones distintas. Recorren caminos diferentes dentro de lo metodológicamente defendible, sin necesidad de suponer mala fe.

“En suma: el diseño de investigación es endógeno”, escriben. Es decir: las decisiones que parecen técnicas pueden ser parte del mecanismo por el cual los a priori se alinean con el resultado que llega al lector.

El estudio también marca su límite: BRW observa la especificación final, no el recorrido completo (cuántas alternativas se probaron y se desecharon ni por qué). Lo que los datos disponibles pueden mostrar es una asociación: las decisiones finales de especificación se correlacionan con prioridades ideológicas medias antes del análisis, sin que ello autorice una inferencia causal fuerte.

Para volver concreto el “camino”, los autores reportan cinco encrucijadas que, combinadas, explican buena parte de la divergencia: cómo escalar el resultado, cómo medir la inmigración (stock vs. flujo), usar o no modelos multinivel, qué países incluir y qué olas de la encuesta sumar (por ejemplo, 2016). Esas decisiones generan 58 especificaciones “no vacías”. 

Al ordenarlas por efecto esperado (AME), aparece el patrón: los equipos antiinmigración son los únicos que adoptan combinaciones que producen los efectos esperados más bajos; los proinmigración, los más altos. 

En conjunto, ese paquete explica alrededor del 68% de la brecha promedio entre ambos extremos.

Los números que viajan

No toda estimación tiene la misma “vida” pública. En el debate, el centro de la distribución rara vez toma el micrófono: lo hacen los bordes.

En BRW, las estimaciones se agrupan en torno a cero, pero las colas siguen produciendo resultados grandes y significativos. En términos de percentiles, el contraste es casi didáctico: p10 = −0,071 y p90 = 0,052. Traducido al lenguaje político, un paso del 10% al 11% en la proporción de inmigrantes podría asociarse con una caída de unos siete puntos o con un aumento de unos cinco puntos en el apoyo a programas sociales, según el camino analítico elegido.

Ahí está la importancia de las colas, no porque representen a la mayoría, sino porque son legibles, publicables, reutilizables. Dos lecturas opuestas pueden derivarse del mismo conjunto de datos y ambas caben, con relativa comodidad, dentro del universo de elecciones plausibles.

El artículo no mide titulares, pero sí mide algo que los alimenta: los extremos no aparecen al azar. Los equipos tienden a “caer” en colas coherentes con su orientación y, dado que todos parten del mismo resultado de referencia nulo, son los equipos más ideológicos los que más se alejan de él, adoptando especificaciones que empujan la estimación hacia uno u otro extremo.

La implicación es doble: incluso una ciencia metodológicamente defendible puede convertirse, sin querer, en combustible para la polarización cuando rutas distintas producen munición en direcciones opuestas. Por eso resulta crucial mostrar la distribución completa, no solo los picos más fotogénicos, para que el debate público no confunda la cola con la regla. 

Y si esto ocurre en condiciones casi de laboratorio, queda la pregunta: ¿qué pasa “afuera”, donde los incentivos, las instituciones y las apuestas morales son más ruidosos?

Prueba de estrés fuera del laboratorio

A partir de aquí, el texto cambia de terreno: salimos del BRW. Lo que sigue es una extrapolación editorial del mecanismo: cómo decisiones metodológicas defendibles, sumadas a filtros institucionales, pueden orientar qué termina circulando como “evidencia”. No reemplaza la reportería: cualquier afirmación específica exigiría una verificación propia.

Si los datos no hablan por sí solos, queda una pregunta política en sentido amplio: ¿quién está autorizado a hablar por ellos y bajo qué reglas esa voz se vuelve válida?

El control del tabaco ofrece un caso fértil. Allí, ciencia, salud pública e industria se cruzan en un campo donde el desacuerdo no es solo toxicológico o epidemiológico, sino también normativo: abstinencia como ideal regulatorio único versus reducción de daños como estrategia pragmática para quienes no pueden o no quieren dejar del todo.

En ese entorno, método y moral se tocan porque la evidencia pasa por “puertas”: estándares de prueba, normas editoriales, prioridades de desenlace, lenguaje de guías clínicas. Esas puertas deciden qué preguntas entran, qué comparaciones parecen aceptables, qué riesgos se toleran y cuáles se vuelven políticamente inasimilables.

La literatura sobre nicotina no combustible condensa la tensión. 

Por un lado, estudios sugieren que para fumadores que cambian del cigarrillo al vapeo la exposición a ciertas toxinas tiende a ser menor y que, para algunos, estos productos pueden ayudar a cesar o a sustituir. 

Por otro lado, no hay inocencia: no son libres de riesgo y su uso por parte de no fumadores, sobre todo jóvenes, se percibe como una amenaza (normalización de la nicotina, posible puerta de entrada). 

De ahí el contraste: países como el Reino Unido adoptan una línea más pragmática con foco en fumadores adultos, mientras algunos foros multilaterales enfatizan la cautela y advierten sobre la captura narrativa de la “reducción de daños” con fines comerciales.

En algunos países, la preocupación también se desplaza hacia productos menos visibles, como las bolsas de nicotina. Y el caso del snus funciona como un laboratorio disputado: Suecia se cita por su baja prevalencia de tabaquismo y por buenos indicadores asociados al cigarrillo, a veces leídos como efecto de sustitución, pero hay críticas sobre conflictos de interés, extrapolaciones y resultados clínicos aún inciertos, especialmente en lo cardiovascular y lo poblacional.

El objetivo aquí no es arbitrar un ganador, sino mirar el mecanismo: antes de convertirse en consenso, la evidencia atraviesa filtros, comités de guía, revisión editorial, barreras reputacionales, temores legítimos de captura regulatoria y conflictos reales. Debajo de todo están los valores y, con ellos, lo que una sociedad decide tolerar. 

En campos así, el espejo no solo distorsiona, a veces legisla sobre qué reflejos tienen permiso para existir.

Cuando los controles se comen el mecanismo

Si fuera del laboratorio el mecanismo ya se ve, ¿qué pasa cuando la discusión vuelve “adentro”, donde la tranquilidad puede venir en forma de regresión y donde “controlar por todo” corre el riesgo de borrar el canal que queremos observar?

Borjas y Breznau discuten la lectura más tranquilizadora del BRW. El estudio original concluyó que las características de los investigadores no explicaban la variación de resultados. Para ellos, esa paz puede ser aparente: se compra con un gesto estadístico clásico —el kitchen sink, controlar casi todo— que, en este caso, puede estar controlando justamente el mecanismo que produce la divergencia.

Según su reanálisis, BRW regresa el efecto estimado de cada equipo (inmigración sobre un indicador de “cohesión social”, operacionalizado como apoyo a políticas sociales) contra la ideología y un paquete amplio de controles que incluye, además, descriptores de la propia especificación (por ejemplo, logit vs OLS; efectos fijos de país y año). En ese arreglo expandido la ideología deja de verse como significativa.

Aquí está el giro: si las elecciones de modelado son endógenas, si forman parte del mecanismo por el cual los a priori y las creencias se traducen en estimaciones, entonces “controlarlas” puede equivaler a controlar el canal por el que opera la ideología. No es un detalle técnico: es neutralizar el mecanismo y luego concluir que no existía. En lenguaje causal (como traducción editorial), es el error típico de controlar un mediador.

La implicación es epistemológica: si las inclinaciones pueden inscribirse en las decisiones entre datos y modelo, “quién controla qué” deja de ser un matiz y se vuelve arquitectura del conocimiento. Aun así, el límite permanece: BRW registra la especificación final, no el flujo completo. No sabemos cuántas alternativas se probaron o descartaron, ni si hubo gravitación hacia modelos más compatibles con conclusiones preferidas.

Lo que sí se observa es una asociación ordenada en el tiempo: las decisiones finales de especificación se correlacionan con a prioris ideológicos medidos antes del análisis y esa concordancia, sin probar intención, sostiene la hipótesis de sesgo por el recorrido.

Entre método y mundo

Una vez que está sobre la mesa la posibilidad de “controlar y borrar” el canal, la discusión deja de ser solo sobre modelos y pasa a ser sobre qué es la evidencia y qué le exigimos.

Lo inquietante en el reanálisis de Borjas y Breznau no es que revele mala conducta, sino que no la necesita: decisiones técnicas, legítimas y defendibles pueden producir mundos analíticos distintos, y parte de esa divergencia se alinea de forma sistemática con creencias previas. 

Aun así, el propio artículo frena: la ideología no fue un “tratamiento” aleatorizado, sino una característica medible, y por eso la inferencia causal es limitada. Lo que el estudio muestra es una asociación persistente, con incertidumbre visible en intervalos amplios.

El punto vuelve a una tensión básica: los datos no hablan solos, no porque “todo valga”, sino porque entre la planilla y el resultado hay un laberinto de decisiones plausibles. Si el diseño es endógeno, ese laberinto tampoco es neutro: la especificación final puede correlacionarse con a prioris previos al análisis.

Aquí la metaciencia se convierte en discusión de proceso. Los autores subrayan una carencia decisiva: BRW no registra el recorrido completo, cuántas alternativas se probaron, cuándo se descartaron, por qué. De ahí la agenda: documentar flujos de trabajo, hacer visible el “jardín de senderos que se bifurcan” que suele quedar fuera del artículo publicado.

Hay, además, un detalle incómodo sobre qué se considera “evidencia válida”: dentro del experimento, las estrategias fueron evaluadas con revisión por pares aleatorizada y doble ciego resumida en un referee score

En promedio, los equipos moderados obtuvieron el puntaje más alto (0,35), por encima de los antiinmigración (0,03) y los proinmigración (−0,33). Eso no decide quién tiene razón, pero sugiere que los filtros de calidad o de convencionalidad también moldean qué resultados ascienden como “aceptables”, sobre todo cuando elecciones menos comunes producen valores atípicos.

Nada de esto exige cinismo. La salida que proponen es más trabajosa: tratar la robustez como evidencia agregada, no como un coeficiente coronado. 

En un test “agnóstico”, estiman el efecto de la ideología en 883 modelos y trazan una curva de especificación: la ideología aparece significativa (P < 0,10) en 88,2% de los modelos, proporción que sube a 92,4% al excluir modelos más vulnerables a sesgo por omisión (sin efectos fijos disciplinares). 

En términos simples: el patrón no depende de una sola especificación, sino que reaparece a través del multiverso y se vuelve más frecuente cuando el test se vuelve más exigente.

Después de cientos de modelos, el argumento se ensancha: ya no es solo robustez, es quién ve el camino y quién gana cuando ese camino permanece oculto.

El espejo, el ángulo y el lector invisible

Al final, el reanálisis de Borjas y Breznau quizá diga menos sobre inmigración y política social que sobre cómo se fabrica la evidencia en dominios cargados, esos donde la realidad empírica llega al laboratorio ya acompañada de disputa.

La “verdad estadística”, sugieren, se parece a una imagen en un espejo curvo: cambia con el ángulo de quien la mira o, más precisamente, de quien la construye. Entre el dato y el resultado hay una secuencia de decisiones sobre qué medir, qué comparar, qué controlar, qué publicar.

Y hay un tercer vértice, casi siempre fuera de cuadro: el lector invisible (la institución, la redacción, el tribunal de la opinión pública) para quien ciertas imágenes circulan mejor que otras.

No hay herejes en esta historia. Los equipos siguieron protocolos legítimos y métodos aceptados. El problema no es la mala fe, sino la invisibilidad del recorrido: decisiones que no caben en el artículo final, modelos probados y abandonados, alternativas que desaparecen sin rastro y que, en conjunto, determinan lo que el lector recibe como evidencia.

Como en una redacción donde todos parten del mismo material bruto pero solo una historia llega a portada, la ciencia también selecciona y hace desaparecer. Lo que queda —el coeficiente final, la figura “limpia”, el número que se vuelve argumento— es solo una versión entre muchas posibles.

Por eso el desafío no es blindar la ciencia contra el sesgo (imposible), sino construir instituciones capaces de convivir con él sin naturalizarlo: menos fetiche por la neutralidad y más transparencia sobre elecciones; menos idolatría de un único resultado y más atención a distribuciones; menos culto al artículo cerrado y más apertura del proceso.

Si hay un antídoto, no se parece a la censura sino a su contrario: pluralismo. Más equipos, más ángulos, más modelos, más escrutinio cruzado, no para convertir toda conclusión en opinión, sino para iluminar el camino y reducir el poder silencioso de un solo espejo inclinado.

Referencia

Borjas, G. J., & Breznau, N. (2026). “Ideological bias in the production of research findings”. Science Advances, 12(1), eadz7173. https://doi.org/10.1126/sciadv.adz7173

Sobre los autores

George J. Borjas está afiliado a la Harvard Kennedy School y al National Bureau of Economic Research (NBER).

Nate Breznau está afiliado al German Institute for Adult Education—Leibniz Centre for Lifelong Learning (Bonn), en el Department of Organization and Program Planning.

* * *

En la sala de edición del multiverso, con Borjas y Breznau

Una entrevista anotada / cuaderno tras bambalinas

En la pantalla, la ciencia parece un objeto sereno. Una specification curve, una hilera de modelos, ordena el caos hasta volverlo algo parecido a un paisaje. A distancia, es fácil creer que el debate trata de números. Pero en mi conversación con Borjas y Breznau, el 6 de febrero, el asunto volvía una y otra vez al mismo punto: antes del número, hay un camino. Y es en ese camino donde la evidencia adquiere dirección.


I. Endogeneidad del diseño: ¿inconsciente o deliberada?

Empecé por la frase que, en su artículo, funciona como bisagra: «endogeneity of design». ¿Es este proceso mayormente inconsciente (la deriva silenciosa del investigador) o hay margen para alineamientos más deliberados (aunque aún legítimos) entre las expectativas teóricas y las elecciones de modelado?

No respondieron con psicología. Respondieron con arquitectura:

“El proceso de hacer investigación empírica tiene muchos pasos: ¿cómo formular la pregunta? ¿Qué datos analizar? ¿Cómo medir las variables que se usarán? ¿Qué técnica metodológica utilizar? Y así sucesivamente. Cada una de estas decisiones abre una bifurcación en el camino, y la combinación de todas las decisiones conduce a resultados muy específicos que difieren de lo que se habría obtenido con otro conjunto de decisiones. Todo el que hace investigación empírica sabe esto y ‘ve’ el impacto específico de un conjunto de decisiones durante el proceso de investigación. Lamentablemente, las decisiones pueden ser manipuladas por alguien que desea llegar a un punto final particular. Por eso es extremadamente importante que el investigador sea totalmente transparente respecto de qué decisiones de diseño de investigación se tomaron”.

Aquí, la transparencia no suena como una virtud decorativa, suena como un contrapeso institucional a un hecho banal y explosivo: hay muchas rutas plausibles y algunas rutas hacen que el mundo parezca otra cosa.


II. Aprender qué “empuja” los resultados

La siguiente pregunta presiona un punto más delicado: en contextos de alta flexibilidad analítica, ¿aprenden inevitablemente los investigadores qué decisiones “empujan” los resultados hacia una dirección u otra?

La respuesta llega sin acolchado y las voces se deslizan a la primera persona:

“Si durante el proceso de investigación un investigador no aprende que ciertas decisiones de diseño tienden a empujar los resultados en una dirección particular, ese investigador no es muy competente desde el principio.”

Es una frase que pide leerse despacio. No solo dice que el aprendizaje es inevitable; define la competencia como la capacidad de ver, en tiempo real, lo que las elecciones le hacen a la estimación.

El problema, entonces, no es descubrir que las decisiones inclinan los resultados. Es qué se hace con ese descubrimiento y cuánto de eso queda fuera del artículo final, invisible para el lector que recibe el coeficiente ya limpio, ya editado, ya convertido en conclusión.


III. Asimetría ideológica: ¿un sesgo dominante en las ciencias sociales?

La asimetría ideológica del BRW (pocos equipos antiinmigración) plantea una pregunta difícil de mantener en el plano puramente técnico. ¿Sugiere un sesgo ideológico dominante en ciertos campos?

Responden con una conjetura anclada en un trasfondo estadounidense:

“Dado lo ampliamente difundidos que están en Estados Unidos los datos sobre cómo casi todo el dinero donado a partidos políticos por profesores universitarios va en una sola dirección (la izquierda), es difícil disputar la conjetura de que ‘las ciencias sociales hoy operan bajo un sesgo ideológico dominante’”.

Corte editorial: lo llaman conjetura, no resultado del experimento. Pero la frase arrastra una implicación de infraestructura: si un campo es asimétrico, la pluralidad de rutas (y de preguntas) puede venir filtrada desde el inicio, no solo por el método, sino por la sociología de quién logra entrar al laboratorio.


IV. ¿Un problema epistemológico o sociológico?

Si la asimetría es real, pregunto, ¿es un problema epistemológico en sí mismo o un reflejo de la composición de la comunidad científica?

Retroceden a un terreno donde la metaciencia todavía no tiene piso firme:

“No lo sabemos”.

Luego, una hipótesis:

“Probablemente hay mucho ‘sesgo ideológico’ en la contratación de profesores en las universidades”.

Y, a partir de ahí, una agenda de investigación:

“Necesitamos más investigación sobre cómo la ideología moldea todo el proceso de investigación, desde la epistemología, pasando por los métodos, hasta los resultados”.

El arco es claro: del reclutamiento al método, del método al resultado, una cadena completa de selección en la que lo que llamamos “evidencia” también es una fotografía institucional de lo que estuvo permitido preguntar.


V. Colas, extremos y polarización

Cuando la conversación vuelve a las colas, los resultados extremos, estadísticamente significativos, que viajan con mayor facilidad hacia la política pública y el debate, les pregunto qué hace esto con la polarización.

La respuesta llega como un a priori confesado:

“Nuestro prior siempre es ser escéptico respecto de la evidencia en campos altamente contenciosos y politizados”.

Luego, la crítica se desplaza del conjunto de datos al ecosistema:

“Lamentablemente, el proceso de contratación en las universidades y el proceso de revisión por pares también están contaminados por sesgo ideológico, así que lo que uno llega a leer ya está fuertemente filtrado”.

Y entonces aparece la frase que cae con fuerza de acusación, aunque se ofrezca como diagnóstico:

“Así que no sería descabellado decir que gran parte de la desconfianza en la ciencia probablemente se ha ‘ganado’ a lo largo de años de científicos vendiendo resultados que podrían haber sido manipulados para llegar a conclusiones específicas”.

Corte editorial: el artículo mide asociaciones y patrones. Aquí, la conversación roza la confianza pública y la forma en que un “resultado” se vuelve mercancía política. La frase no es una estadística. Es una lectura moral de un ecosistema de filtros.


VI. Mitigar la circulación selectiva —sin censura—

Si los extremos viajan, ¿se puede hacer algo contra la circulación selectiva sin deslizarse hacia la censura o neutralizar el disenso?

No ofrecen una solución simple, pero señalan una dirección:

“Aunque no veamos una solución sencilla, diría que la respuesta (si existe) es exactamente lo opuesto a la censura. Dejen que una pregunta sea analizada por muchos investigadores desde muchos ángulos distintos”.

Pluralismo como antídoto: no para afirmar que “todo vale”, sino para insistir en que, cuando hay muchas rutas plausibles, la honestidad intelectual no es elegir una y fingir que las otras nunca existieron, es hacer visibles las bifurcaciones.


VII. Si son posibles muchos resultados, ¿colapsa la replicabilidad?

Si “el” resultado empírico es solo una realización entre muchas, ¿se cae el ideal clásico de replicabilidad?

Resisten la respuesta limpia:

“No lo sabemos”.

Pero aparece un ethos:

“Pero el método científico implica revisar y volver a revisar resultados, y prestar atención a la robustez”.

Y con él, un criterio para el malestar:

“Si hay muchos resultados en muchas direcciones distintas, entonces o no hay un efecto claro de algo o necesitamos trabajar más para identificar la prueba correcta”.

La replicabilidad aquí no es un sello. Es trabajo repetido y un diagnóstico: o el efecto no está o la prueba todavía no encontró su forma adecuada.


VIII. Pluralismo controlado: multiversos, curvas, transparencia radical

En lugar de replicación en sentido estricto, ¿debería el campo moverse hacia un pluralismo controlado —multiverse analyses, specification curves, transparencia radical—?

No eligen un lado. Eligen ambos:

“Ambas. Deberíamos hacer replicación y reanálisis en los que ajustamos modelos anteriores”.

Esto no es moda metodológica. Es disciplina: replicar y reanalizar y, en el reanálisis, ajustar modelos previos, volviendo explícitas las elecciones y sus consecuencias.


IX. ¿Esto se aplica a salud pública (nicotina, tabaco, drogas)?

Empujo el mecanismo fuera del laboratorio y hacia dominios donde método y juicio moral se enredan: salud pública, control del tabaco, política de drogas, etc. ¿Es un caso especial?

Rechazan la comodidad de la excepción:

“Muéstrenme un campo de la ciencia donde la evidencia y los juicios morales no se entrelacen. Este no es un problema único de un área”.

Si el entrelazamiento es estructural, entonces la pregunta no es dónde ocurre, sino bajo qué reglas se gobierna.


X. ¿Cómo evitar la hegemonía epistémica sin caer en relativismo?

Por último, pregunto si, en áreas de fuerte consenso institucional, el riesgo principal puede no ser el sesgo individual, sino la hegemonía epistémica de ciertos marcos y cómo puede la ciencia enfrentar eso sin deslizarse hacia el relativismo.

La respuesta termina en un límite:

“Ni idea”.

Esa última frase funciona como una ventana. Sugiere que cuando la conversación llega a su punto más difícil —no la ideología de individuos, sino la hegemonía de estructuras— el lenguaje disponible todavía es insuficiente. El artículo mide lo que puede medir. La entrevista, por momentos, roza lo que aún ni siquiera sabemos cómo preguntar.

Y ahí es donde este cuaderno encuentra su propósito: mostrar que detrás de cada coeficiente hay un sistema de decisiones, detrás de cada decisión, un conjunto de filtros, y detrás de los filtros, un lector invisible —la institución, el editor, la directriz, la política pública, nosotros— esperando el número que mejor viaja.


Nota del editor: Las citas han sido editadas levemente en ortografía y puntuación. Por lo demás, se preservan la redacción y el sentido.


Este artículo es una publicación original. Si encuentra algún error, inconsistencia o tiene información que pueda complementar el texto, comuníquese utilizando el formulario de contacto o por correo electrónico a redaccion@thevapingtoday.com.

REDACCION VT
REDACCION VT
En VapingToday, nos dedicamos a proporcionar información precisa y actualizada sobre la Reducción de Daños del Tabaco. Con el respaldo de C3PRESS y Kramber Designs, nuestro equipo se esfuerza por ofrecer una cobertura completa y perspectivas expertas para nuestros lectores. Establecidos en 2020, seguimos comprometidos con la transformación del panorama informativo en un tema crucial para la salud pública.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí
Captcha verification failed!
La puntuación de usuario de captcha falló. ¡por favor contáctenos!

Share post:

spot_img

Popular

Artículos relacionados
Relacionados

David Nutt y el peso de las cosas

En un debate saturado de símbolos, espantapájaros y advertencias,...

Cuando una consulta pública no da la respuesta correcta

Cómo el uso político de la sospecha ha llevado...

El año en que prohibimos lo equivocado

Una retrospectiva íntima y política: ¿qué vimos en Vaping...

La ciencia del vapeo bajo sospecha

Sébastien Soulet y Roberto A. Sussman ponen el dedo...