Cómo interpretar estudios estadísticos.

agomez

Well-known member
Esto viene a raíz de la polémica sobre la proteína y el riñón, en la que se ven algunas confusiones con respecto a qué signfican algunos estudios.
También la idea es que no manejemos los estudios estadísticos como una ametralladora para callar a los discrepantes y sí como una herramienta de crecimiento.
También he leído en estos días reclamaciones sobre falta de profesionalismo y cientificismo.

Comencemos, entonces, y agradezco a los compañeros que tengan conocimientos en el área, ayudar a colocar el punto en forma comprensible.

Primero, para mí la regla básica aquí como en cualquier disciplina práctica, es que cualquier resultado estadísitico es una referencia, pero no una verdad absoluta. Las teorías tienen que funcionar en la práctica, y si la realidad particular no se adapta al modelo, por lo menos tendremos que estudiarla un poco más en vez de encajarla a los martillazos.


Vamos a un ejemplo bien simple como primera entrega.

Una de las áreas en que este tipo de herramientas se comenzaron a usar es la producción agrícola. Supongamos que queremos averiguar los efectos de un fertilizante para frijoles, todos sometidos a condiciones homogéneas, salvo el fertilizante.

Nos informan algo más o menos así: "se encontraron efectos significativos a un nivel p < 0,05", lo cual en general no se traduce bien a nuestra forma cotidiana de hablar. Voy a intentar traducirlo:

Lo que el experimento hace es tomar la siguiente hipótesis: "no existe efecto al usar el fertilizante", o bien, la diferencia entre las plantas con fertilizante y sin fertilizante, es en media 0. A partir de los datos (no interesa aquí la fórmula usada) calcula la probabilidad de que, bajo esa hipótesis de "no efectos", se haya obtenido un resultado similar al que se obtuvo. Si esa probabilidad es lo suficientemente baja (menos de 5%), descartamos la hipótesis de efectos nulos y concluimos que hay efectos. En otras palabras: "concluyo que debe haber un efecto, porque el experimento dio un resultado que sería muy improbable si no hubiese efecto ninguno"

Más adelante, veremos más detalles sobre este ejemplo, y posiblemente otros algo más complejos.

Agradezco el que pueda corregir, ayudar a esclarecer, aportar, ampliar, y también al que, no viéndolo claro, exprese esas dudas para ayudar a mejor explicarlo.
 
cualquier resultado estadísitico es una referencia, pero no una verdad absoluta

Esta frase me ha recordado al célebre Falsacionismo de Popper. Se pueden encontrar miles de casos que avalen una teoría, pero sólo es necesario uno de resultado contrario para refutarla.

A la hora de analizar un estudio creo que hay que tener en cuenta los siguientes aspectos:

- Quién realiza el estudio (posible sesgo)
- Tamaño de la muestra
- Elección de los sujetos de la muestra
- Claridad a la hora de establecer la hipótesis nula y alternativa
- Método utilizado (grupos y control)
- Resultados obtenidos y su análisis estadístico (significación, percentiles y demás)
- Relación entre los resultados y la refutación de la teoría por parte de los autores.


Y digo esto porque un estudio se puede hacer con bases científicas y tener un sesgo considerable.

Excelente hilo agomez, y bien explicado. Se agradece.
 
Gracias también, Grant, y buenas tus observaciones, creo que entre todos podemos ir agregando y también aprendiendo.

Vimos que se entiende que existen efectos significativos cuando el resultado del experimento es muy improbable bajo la hipótesis de "no efectos" o hipótesis nula.

La otra posibilidad que vemos en estos estudios es que no se encontró evidencia suficiente, o que no se encontraron efectos significativos. Cómo se lee eso? Quiere decir en realidad que, los resultados del experimento son razonablemente compatibles con la hipótesis de "no efectos".Los resultados no son muy improbables bajo la hipótesis nula. Esto aparece numéricamente por ejemplo como: p >0,40. Como el criterio según vimos para rechazar la hipótesis nula es que esta p sea menor a 0,05 (5%), no la rechazamos y mantenemos la posición de que el factor en estudio no es significativo.

En esto tenemos dos tipos de errores:

tipo I: rechazar la hipótesis nula cuando esta es verdadera
tipo II aceptar la hipotesis nula cuando es falsa (es decir, hay efectos pero no son eviedentes en el experimento)

El criterio es limitar la probabilidad de error de tipo I (esta probabilidad es lo que aparece como nivel de significación) a generalmente menos de 5%. Esto libera que la probabilidad de error de tipo II sea bien grande (por ejemplo, si hay un efecto pequeño es posible las observaciones sean compatibles con un "no efecto")

Entonces, cuando un estudio dice "efectos significativos" nos está dando más seguridad que cuando dice "no se observaron efectos" En este último caso, la probabilidad de ese resultado bajo un cierto efecto (probabilidad de error de tipo II) puede ser bastante grande.

Es parecido a aquello de absolver un culpado o condenar un inocente. En un sistema jurídico correcto, hay más culpados que no son condenados que inocentes que lo son

Resumendo: cuando dice p - value <0.05 quiere decir que la probabilidad de haber obtenido un resultado como el que se obtuvo bajo la hipótesis de "no existe efecto" es menor que 5%, entonces decidimos que existe un efecto significativo. Si el p - value es menor todavía, por ejemplo 1%, tendremos más certeza para decidir que hay un efecto.
 
Última edición:
Relacion estadistica y mecanismo real

Los otros días aqui mismo discutíamos sobre el tema músculos x agilidad, y es un ejemplo interesante de vários errores estadísticos: deducir una relación causa - efecto de una relación numérica, basar la relación numérica en datos no tecnicamente colectados ni procesados, y no definir correctamente las hipótesis.

Algunas personas hacen un razonamiento similar a lo que llamamos de tabla de contingencia, que consiste en organizar lo que observamos de la siguiente forma:

musculoso\ágil mucho médio poco
mucho
médio
poco

clasificando cada caso como por ejemplo muy musculoso y de agilidad media, poco musculoso y muy ágil, etc., siendo que en cada cuadrado queda un número de observaciones. Por ejemplo, tengo 5 casos de poco músculoso y poco ágil.

Si ambas condiciones fueran independientes, las proporciones de agilidad en los muy musculosos serían parecidas a las de los médio musculosos y de los no musculosos. (hay procedimentos numéricos para evaluar esto, pero intuitivamente no recurrimos a ellos)

Y la persona observa entonces que los datos se le distribuyen en la diagonal, es decir encuentra tipos muy musculosos y poco ágiles, tipos com musculatura mediana y agilidad mediana también, y tipos poco musculosos y muy ágiles. Y encuentra pocos (o por lo menos a su parecer pocos) muy musculosos y muy ágiles, o poco musculosos y poco ágiles.

Y deduce lo siguiente: "en la humanidade en general, mucho músculo está relacionado a poca agilidad y vice-versa". Es claro que aqui, hay ya algunos errores:

1) no está muy bien definido ni lo que es "musculoso", ni "ágil"

2) no están tampoco bien definidas las poblaciones, pues no se considera edad, tipo físico, dedicación a tal o cual deporte

3) aún cuando la población estuviese razonablemente bien definida la elección de los casos no es por un muestreo técnico sino algo inconscientemente subjetivo, en función de lo que me llame más la atenció. Por ejemplo, en el caso me va a llamar mucho más la atención Van Damme (musculatura media, muy ágil), porque tiene horas y horas de aparición en la televisión que Angel Guenchev (muy musculoso, muy ágil) que sólo apareció 1 minuto en la TV levantando 200 k en envión y festejando com una doble vuelta carneiro hacia atrás en el aire

4) como no hay un procesamiento numérico, la no uniformidade de la tabla se deduce en certo modo a ojo.

Dejemos ahora de lado esos detalles que dejamos passar en cuanto hacemos nuestras observaciones intuitivas (lo hacemos todo el tempo, hasta cuando decidimos que el mercado tal es más barato que el de la outra cuadra), y supongamos que las poblaciones y las categorias están bien definidas, que dentro de ellas se muestrearon los datos en forma correcta, que se hizo un tratamento numérico adecuado, y que se llegó a la conclusión que efetivamente la musculatura desarrollada y la agilidad tienden a excluirse.

La conclusión correcta, la única que esos datos me permiten hacer es la siguiente: "si en la población que tengo elijo al azar un individuo, puedo estimar la probabilidade de ser más o menos ágil en función de haber resultado más o menos musculoso".

Veamos la deducción errada: "si me pongo musculoso, no voy a conseguir ni moverme". Es decir, deduzco de una relación numérica supuestamente verdadera, el mecanismo que gobierna esa relación numérica. Por ejemplo, no considero por ejemplo la posibilidad que ambas condiciones tengan una fuerte base genética, y que los genes que favorecen una perjudican la otra.

En realidad, si quisiera probar que "ganar musculatura perjudica agilidad", o que "ganar agilidad perjudica musculatura", o que "perder musculatura favorece agilidad", debería hacer un estúdio tipo "antes y después", aún entendendo que el "ganar o perder musculatura" es diferente según las vías que se usen para eso.

Otro ejemplo de esto, bastante popular, es aquella broma de que los edulcorantes engordan, porque los gordos toman y los que no son gordos no. La relación numérica es verdadera, la deducción es un disparate.
 
Acerca del último post.
Como dices es absurdo hacer afirmaciones tan tajantes como "si coges masa perderás agilidad".

Entonces crees que podría haber algún tipo de relación tipo:
Cantidad de masa ganadaaportación de la nueva masa a la movilidadcapacidad o necesidades del cuerpo para poder mover la nueva masa (en joules por ejemplo).
O algo parecido, ¿no?
 
Última edición:
Interesante esto de las estadísticas, las que se refieren a la alimentación no me suelen parecer demasiado fiables. Creo que se necesitarían varias generaciones y cientos de miles de individuos para que se pudieran decir cosas como que esto o lo otro provoca cáncer, engorda, produce impotencia... Creo que todos hemos leído cosas terribles de los conocidos refrescos de cola, ¿de verdad se pueden demostrar estadísticamente?
 
Acerca del último post.
Como dices es absurdo hacer afirmaciones tan tajantes como "si coges masa perderás agilidad".

Entonces crees que podría haber algún tipo de relación tipo:
Cantidad de masa ganadaaportación de la nueva masa a la movilidadcapacidad o necesidades del cuerpo para poder mover la nueva masa (en joules por ejemplo).
O algo parecido, ¿no?

Seguro, en el caso sería tipo um estudio antes/después sobre cada individuo (considerando vários indivíduos, y aplicándoles a todos el mismo tratamiento).

Tendríamos, en cada caso, uma diferencia de musculatura, y uma diferencia de movilidad (que habría que definirla correctamente y darle uma expresión numérica), y se podría ver si hay uma correlación entre ambas variaciones.

Aún así, tendríamos que verificar si los resultados dependen o no de las características de los indivíduos, o del tratamiento que se les sometió. Por ejemplo, un entrenamiento basado en tension isométrica exclusivamente posiblemente dé hipertrofia y disminución de movilidad (vía mayor sección muscular para igual vascularización), o de las condiciones iniciales del individuo (en alguien no entrenado o sedentario, cualquier entrenamiento incrementaría ambas variables)
 
Interesante esto de las estadísticas, las que se refieren a la alimentación no me suelen parecer demasiado fiables. Creo que se necesitarían varias generaciones y cientos de miles de individuos para que se pudieran decir cosas como que esto o lo otro provoca cáncer, engorda, produce impotencia... Creo que todos hemos leído cosas terribles de los conocidos refrescos de cola, ¿de verdad se pueden demostrar estadísticamente?

Es mucho más difícil en seres humanos. Buena parte de la producción agropecuária está basada en estúdios de este tipo. Seleccionar al azar muestras de cerdos de determinada raza y edad, colocarlos en bretes iguales, y ver que la ración tal o el mineral cual tienen un cierto efecto en el engorde. O untar com crema común y crema supuestamente tóxica el lomo de ratones para ver si se les produce câncer o no.

Algunas pruebas que se hacen com seres humanos son lo que le llaman de experimentos de doble ciego para ver si un medicamento es efectivo o no. De uma población de enfermos, sortean un grupo que recibe el medicamento y el resto un placebo, ni el paciente ni el médico saben en que grupo está cada uno. Todo esto tiene un lado bastante complicado con la ética.

el caso de seguir grandes conjuntos de datos, que elimina de alguna forma el tema de que uma persona, por sorteo, acabe perjudicándose, también trae otro tipo de problemas. A veces son muestras que mezclan varias poblaciones muy diferentes. Por ejemplo, el caso de la restricción del sódio. Si se toma uma ciudad o un país y se baja el sódio en los alimentos de uso común, en general la población tiene un beneficio, por lo que la conclusión ingênua es que bajar el sódio es bueno para la salud. Pero este beneficio se compone del resultado de un grupo que sí se beneficia, un grupo mayoritario que es indiferente, y un grupo menor que se perjudica.
 
Última edición:
Pillo sitio para leerlo mañana con calma.

De todas formas,yo del estudio que más me fio es del que realizo yo con mi cuerpo día tras día,ese nunca falla...

Verdad. Quien manda es la realidad, los distintos modelos y procedimentos son solamente herramientas que eventualmente nos pueden ayudar o no a trabajar mejor con ella.
 
¿Y que hay del colesterol? ¿demasiados intereses económicos?
Porqué los resultados en los laboratorios no se exponen nunca al público, lo único que vemos es como el nivel máximo de colesterol recomendado ha bajado varias veces a lo largo de estos años, obligando a los médicos a recomendar de tomar o evitar ciertos alimentos. Y llenando nuestros espacios publicitarios de productos que combaten el colesterol 'malo', el cual técnicamente ni existe.
 
En Argentina se usan mucho las estadísticas. Con la costumbre, hasta las amas de casa mayores de 60 años saben interpretar las tortas gráficas que les mandan impresas a todo color la municipalidad, pagadas con nuestros impuestos...

En cuanto a lo que cuesta divertirse con esas imágenes, las amas de casa saben sumar y da el espeluznante dato de varios millones de dólares al mes en propaganda municipal. Ni hace falta pagar el cable para ver una peli de terror, con los impuestos basta y sobra.
 
Última edición:
¿Y que hay del colesterol? ¿demasiados intereses económicos?
Porqué los resultados en los laboratorios no se exponen nunca al público, lo único que vemos es como el nivel máximo de colesterol recomendado ha bajado varias veces a lo largo de estos años, obligando a los médicos a recomendar de tomar o evitar ciertos alimentos. Y llenando nuestros espacios publicitarios de productos que combaten el colesterol 'malo', el cual técnicamente ni existe.

El interés económico funciona como no. En tanto que estúdios se financian externamente, es cierto que por esa vía se estimula o se dirige por lo menos cuales hacer y cuales no, y la difusión que se les puede dar a unos o a otros. Eso dentro de lo limpio, porque dentro de lo sucio obviamente puede dar para cualquier mentira o falsificación.

Pero en temas de salud, hay, además del interés de los laboratórios y de la indústria alimenticia, otro interés independiente, y que necesita de modelos numéricos bastante finos para ser competitivo, que es el de las aseguradoras. Para el caso del perfil lipídico, si algunos rangos aumentan riesgos de muerte o enfermedad, la asseguradora que los ignore (y por lo tanto cobre menos que las otras) se come todos los riesgos jodidos y va a perdida. Y el que recargue algo que no debería recargarse, pues que se pierde buenos negócios y nuevamente se queda atrás en uma competência que es muy cerrada.

Así, las compañias de seguros tienen normas bastante sofisticadas para recargar el precio por sobrepeso, tabaquismo, alcoholismo, perfil lipídico, presión arterial, etc. Esas normas también reflejan un interés económico, y por el hecho de estar las compañias en competência unas con otras, parecen algo más confiables.
 
Refloto para corregir algunas cuestiones que son muy claras pero que a veces vienen erradas hasta en cosas hechas por acadêmicos.

Supongamos que hacemos un experimento en el que comprobamos que a 50 sujetos le damos determinado suplemento durante 2 meses y esos sujetos progresan consistentemente más que otros 50 que no se lo dimos.

La conclusión que sacamos es que el suplemento tiene un cierto efecto de tratamiento.

Pero en realidad lo que estamos concluyendo desde el punto de vista real es que estadísticamente la población está en falta de ese nutriente.

Lo más frecuente, en estos casos es que las distribuciones de los resultados no acompañen una gaussiana, sino que acostumbran ser bimodales o trimodales, reflejando lo hetergéneo de las condiciones iniciales del los individuos sobre los que se experimentó
 
Refloto para corregir algunas cuestiones que son muy claras pero que a veces vienen erradas hasta en cosas hechas por acadêmicos.

Supongamos que hacemos un experimento en el que comprobamos que a 50 sujetos le damos determinado suplemento durante 2 meses y esos sujetos progresan consistentemente más que otros 50 que no se lo dimos.

La conclusión que sacamos es que el suplemento tiene un cierto efecto de tratamiento.

Pero en realidad lo que estamos concluyendo desde el punto de vista real es que estadísticamente la población está en falta de ese nutriente.

Lo más frecuente, en estos casos es que las distribuciones de los resultados no acompañen una gaussiana, sino que acostumbran ser bimodales o trimodales, reflejando lo hetergéneo de las condiciones iniciales del los individuos sobre los que se experimentó

eso pasó con un estudio donde compararon el suplemento de vitamina C contra el diana... cuyo esteroide es fuerte de cojones xD, y sorprendentemente ganó la suplementación con vitamina C.. lo que no dijeron es que a los participantes les inducieron antes de participar una dieta con falta de vitamina C.. lo mas triste es que la mayoría de estudios hacen estas cosas.. por eso yo no me fio de ninguno
 
también en la cara de las investigaciones médicas, suelen estudiarse con participantes o sedentarios o con rutinas genéricas que no causan gran impacto en el cuerpo, o otros estudios donde hacen controles fatales donde investigan X suplemento pero no la dieta, entreno ni nivel del participante.. esto dicho por roberto castellano quién a participado en estudios y llevado otros.. también dice que la mayoría están comprados con dinero... así que no me fio de ninguno xD
 
Deberian aprender de la investigación agropecuaria, ellos son muy objetivos y rigurosos porque les va el resultado económico en la nutrición de los bichos o de los cultivos.
 
Los estudios sirven, pero hay que leer el estudio en su totalidad y no únicamente el resumen para entenderlos, y ver el contexto en el que están realizados. Me explico.

Es muy común ver investigaciones que están financiados por empresas privadas que tienen un interés importante en que el producto a estudiar salga bien parado con la finalidad de avalar su venta. Y generalmente si ponen dinero, suelen salir bien parados esos estudios.

(Pongo el ejemplo de la inmensa mayoría de suplementos deportivos, por ejemplo, muchas investigaciones y estudios demuestran sin lugar a dudas que el suplemento en cuestión es literalmente la revolución de los suplementos y que no podrémos vivir sin él. Y es curioso ver que cuando laboratorios independientes estudian el mismo suplemento no llegan a las mismas conclusiones ni de lejos.)

Dentro de los estudios, mención especial para los metaanálisis, que consisten en agrupar los estudios similares más pequeños en un estudio más grande y, por ende, con un grupo más numeroso de sujetos y sacar conclusiones de ahí, ya que algunos estudios similares dan resultados diferentes muchas veces por la carencia de sujetos específicos para que el resultado fuera estadísticamente significativo

Su naturaleza hace que un metaanálisis tenga el mayor grado de validación en cuanto a pruebas científicas se refiere. Las conclusiones de un metaanálisis siempre tendrán más peso que las de un estudio individual.
 
Éste es un tema interesante. Es de los pocos en los que creo que realmente puedo aportar algo valioso (porque de musculación sé poquito. Estoy en posición de aprender, no de enseñar. De estadística sí que puedo dar al menos alguna lección básica).

Yo me dedico a la investigación y, cuando discuto con amigos y conocidos, veo que hay ciertos errores que la gente que no se dedica a esto comete con frecuencia y que les llevan a sobreinterpretar las cosas y usar una estadística como arma arrojadiza en la forma que ha descrito agomez. Me gustaría señalar un par de estas cosas.

Lo primero, ésto:
Primero, para mí la regla básica aquí como en cualquier disciplina práctica, es que cualquier resultado estadísitico es una referencia, pero no una verdad absoluta.
Supongamos por ejemplo que un estudio señala que el consumo del alimento x lleva a un incremento significativo del colesterol. El estudio cumple todos los requisitos en lo relativo a muestreo, procedimientos de estimación y otras formalidades para considerarse científicamente válido. Dadas estás circunstancias, ¿podemos concluir sin miedo a equivocarnos que el consumo de x aumenta el colesterol? No, solo podemos "sospecharlo", ¿por qué? porque las casualidades ocurren. Podemos obtener un resultado estadísticamente significativo por pura casualidad (a pesar de que el concepto de significatividad se basa precisamente en minimizar las posibilidades de que el efecto que encontramos sea casual).

La fuerza probatoria de ese resultado se verá incrementada cuando lo encontremos muchas veces, en diferentes ámbitos y con diferentes circunstancias. Ese es el motivo por el cuál se hacen replicaciones de los estudios y se hacen metaanálisis una vez que haya un número considerable de replicaciones. Solo cuando el resultado se haya encontrado muchas veces podemos afirmar con cierta seguridad que es real. Aún así, nunca se puede estar seguro del todo.

Otro punto que considero quizá el más importante es aquel queda resumido en esa frase que todos los científicos tenemos martilleánonos la cabeza: Correlación no es lo mismo que causalidad. Y es que si los científicos tenemos un archienemigo, una bestia negra que protagoniza todas nuestras pesadillas, esa es la correlación espuria.

Recoge datos de un montón de variables y ponte a sacar correlaciones a lo loco. Verás que acabas obteniendo muchas parejas de variables que correlacionan bien. También te darás cuenta de que algunas de ellas son pura casualidad, ya que no hya argumento lógico en el mundo que justifique una relación causal entre ellas.

Poniéndolo en palabras simples, podríamos decir que dos variables están correlacionadas cuando al variar el valor de una varía también el de la otra. Si la variable B aumenta cuando aumenta la variable A, la correlación es positiva. Si el valor de la variable B disminuye cuando aumenta el de A, la correlación es negativa.

Al observar uan correlación entre A y B, podemos sentir la tentación de afirmar que A causa B. Sin embargo, esto no es cierto por varios motivos. La lista de motivos es interminable, pero voy a mencionar algunos de los más frecuentes.

Retrocausalidad
Incluso cuando existe causalidad, es difícil conocer la dirección de la misma y podemos cometer errores.
Pongamos que un extraterrestre llega a este planeta sin conocer nada sobre él. Observa que existe una correlación entre la lluvia y el número de personas con paraguas. Mientras más gente con paraguas se ve por la calle, más llueve. El extraterrestre podría cometer el error de concluir que los paraguas causan la lluvia, cuando en realidad es al revés.

En este caso, es muy fácil ver el fallo. Sin embargo, cuando hacemos investigación intentamos esclarecer relaciones entre variables que, a priori, son ambiguas y, si no procedemos con cautela, podemos acabar concluyendo que A causa B cuando en realidad es B la que causa A.

Sesgo de variable omitida
Pongamos ahora que obtenemos una correlación entre A y B. Podría ser que existiera una relación causal entre las dos variables, pero ¿y si hay otra variable relevante que no estamos teniendo en cuenta? Podría ocurrir que existiera otra variable C, que causara A y B. De este modo, cuando C aumenta, A y B también lo hacen. Por eso observamos que cuando A crece B también lo hace. Sin embargo, la relación causal va de C a A y B, no de A a B, ni de B a A.

Autoselección
En los estudios científicos a menudo intentamos estimar el efecto de una condición determinada comparando a sujetos que se sometieron a esta con otros que no se sometieron a ella. Sin embargo, existe la posibilidad de que los individuos sean más propensos a someterse a dicha condición si poseen una o varias características determinadas. En tal caso, la diferencia de resultados entre los sujetos que se sometieron a la condición y los que no lo hicieron podría deberse a la característica que les hizo más propensos a someterse a la condición y no a la propia condición.

Pongamos un ejemplo. Un grupo de médicos quiere probar la efectividad de un nuevo y prometedor medicamento para tratar patologías del corazón, por lo que busca a enfermos del corazón que se presenten voluntarios para probarlo. Para su sorpresa, hayan que los que se sometieron al tratamiento acaban con peor salud cardiaca que otros pacientes que decidieron no someterse al mismo, ¿qué ha pasado?¿es que el medicamente agrava la patología en lugar de curarla o paliarla? No, lo que pasó fue lo siguiente. Aquellos que decidieron someterse al tratamiento fueron los pacientes cuya enfermedad era más grave, ya que estos eran los que más incentivos tenían para probar un nuevo tratamiento, por eso, aunque el tratamiento tuvo un impacto positivo, el grupo que recibió el tratamiento acabó con una peor salud media que el que no lo recibió.

En los estudios experimentales normalmente se evitan los problemas de autoselección mediante la asignación aleatoria de tratamientos. Sin embargo, hay que tener en cuenta que, dependiendo del objeto de nuestro estudio, esto no es siempre posible.

Por último, señalaré que se puede tener más o menos confianza en los estudios dependiendo de su procedencia. Lo cierto es que en algunas áreas de conocimiento cuidan más la metodología que en otras y, aunque esté feo decirlo, hay algunos campos en los que se publican cosas que no siguen los procedimientos adecuados. De lo que sí creo que podemos estar seguros es de que una estadística es más fiable si ha salido de un artículo publicado en una revista científica. Por norma general, aconsejo desconfiar de toda la evidencia supuestamente científica que venga de otro tipo de medios (periódicos u otros medios de prensa, por ejemplo).
 
Última edición:
Buen aporte.
 
Atrás
Arriba