alfasigma-7dm


Muestra y análisis de variables

  • 22 Septiembre 2011

Introducción

Al realizar un trabajo de investigación, si utilizamos poblaciones numerosas podemos encontrar problemas para poder responder a la pregunta que hayamos formulado1. En estos casos es preciso efectuar la selección de un subconjunto de la población, a la que denominamos «muestra». Las técnicas que utilizamos para seleccionar la muestra entre la población de estudio se denominan «muestreo». De esta forma podremos ahorrar recursos y obtener en la muestra unos resultados similares a los de la población de referencia.

La inferencia estadística estudia los métodos para obtener un modelo de probabilidad que sigue una variable aleatoria en una población a partir de la muestra obtenida de ella. Es necesario estimar el tamaño de la muestra, es decir, calcular el número de individuos necesarios para poder comprobar la hipótesis de nuestro estudio. Para que los resultados obtenidos en una muestra sean generalizables a toda la población, esto es, para que el estudio tenga la validez y fiabilidad precisas, deben cumplirse unas determinados requisitos: el cálculo del tamaño de la muestra y la forma de obtener la muestra.

La muestra permite trabajar de una forma más eficiente, ahorrando costes económicos y tiempo. También puede suponer ventajas éticas, al evitar que un número innecesario de personas se expongan a factores de riesgo. Así pues, las ventajas de la muestra son científicas y éticas. El tamaño de la muestra es el número de elementos que determinan la muestra, y hay que determinarlos antes de realizar el muestreo.

Tamaño de la muestra

El cálculo del tamaño de la muestra y las técnicas de muestreo se relacionan con la estimación. Debemos considerar dos situaciones, los dos problemas fundamentales que estudia la inferencia estadística que nos permitirá extraer conclusiones válidas de la población a partir de los resultados de las muestras:

• La estimación de parámetros (por ejemplo, estimar el nivel de glucemia promedio).

• El contraste de hipótesis (por ejemplo, estudiar si el nivel de glucemia promedio es igual en hombres que en mujeres).

En este capítulo nos centraremos en la estimación de parámetros.

Estimación de parámetros

Tamaño de la muestra para la estimación de una proporción

Si deseamos estimar una proporción, hemos de conocer:

1. El valor aproximado de la proporción que queremos estimar. Lo obtendremos revisando la bibliografía; si no disponemos de esa información, utilizaremos el 50% que maximiza el tamaño de la muestra (p= 0,5).

2. La precisión con la que queremos realizar la estimación.

3. El nivel de confianza, normalmente del 95%, que da lugar a un coeficiente zα= 1,96.

Aplicaremos la siguiente fórmula:

ec1  

 

Donde n= número de sujetos necesarios; zα= valor del coeficiente z correspondiente al nivel de confianza fijado; p= valor poblacional esperado; d= precisión.

Supongamos, por ejemplo, que pretendemos estimar la proporción de diabéticos en una determinada zona geográfica. A partir de los datos previos sabemos que este porcentaje es de aproximadamente el 9% (p= 0,09); si queremos realizar la estimación con una confianza del 95% (zα= 1,96) y una precisión del ±4% (d= 0,04), necesitaremos 175 sujetos.

Tamaño de la muestra para la estimación de una media

Si queremos estimar una media, el cálculo es similar al anterior. También en este caso hemos de conocer el nivel de confianza y la precisión de la estimación, y además debemos tener una idea de la desviación típica s (o de la varianza s2) de la distribución de la variable cuantitativa en la población de referencia.

La fórmula para calcular el valor de n es:

ec2

Donde n= número de sujetos necesarios; zα= valor del coeficiente z correspondiente al nivel de confianza fijado; s2= varianza de la distribución de la variable en la población; d= precisión.

Si nos interesa conocer, por ejemplo, el nivel de colesterol LDL medio en pacientes que padecen alguna enfermedad cardiaca, con una precisión de 3 mg/dL, un nivel de confianza del 95% y tenemos información por un estudio piloto de que la desviación típica es de 30 mg/100 mL, aplicaremos la fórmula y determinaremos que el número necesario de pacientes que necesitamos es 384.

Podemos encontrar situaciones en las que la población de referencia es finita. En tal caso, si necesitamos extraer una muestra, aplicaremos la siguiente corrección para poblaciones finitas:

ec3

Donde np= número de sujetos necesarios que extraemos de la población finita; n= número de sujetos necesarios calculado para poblaciones infinitas; N= tamaño de la población.

Volvamos al ejemplo anterior, en el que calculábamos el número necesario de pacientes con algún tipo de enfermedad cardiaca necesarios para estimar el nivel de colesterol medio poblacional; el resultado que obteníamos era 384 sujetos. Si la población de referencia es de 2.000 pacientes cardiacos, aplicando la fórmula anterior determinamos que el tamaño de la muestra debe ser de 322.

Muestreo

Es el conjunto de técnicas y procedimientos utilizados para seleccionar la muestra. Para que ésta sea representativa de la población, debe cumplir dos condiciones: a) independencia en la selección de los individuos que forman la muestra, y b) que todos los miembros de la población tengan la misma probabilidad de ser incluidos en la muestra.

Según el número de muestras recogidas de la población, los métodos se clasifican en tres tipos: muestreo simple, doble y múltiple. En el muestreo simple se toma una única muestra; su tamaño debe ser suficiente para extraer conclusiones a escala poblacional. En un muestreo doble, seleccionaremos una muestra inicial; si el resultado del estudio de la muestra inicial no es concluyente, se extrae una segunda muestra, se combinan las dos muestras y se vuelven a analizar los resultados; en cambio, si obtuviéramos algún tipo de resultado con el primer subconjunto de elementos de la población, no sería necesario extraer la segunda muestra. El muestreo múltiple se realiza de forma similar al doble, pero el número de muestras que se recojan sucesivamente será superior a dos.

Dependiendo de la forma de seleccionar los elementos incluidos en la muestra, nos encontramos con dos tipos de muestreo: el probabilístico y el no probabilístico.

El muestreo probabilístico

En este tipo de muestreo, la probabilidad de aparición de cualquier elemento de la población en la muestra es conocida. Se considera el único científicamente válido. Dentro de este tipo de muestreo distinguimos diversos tipos:

Muestreo aleatorio simple

Es aquel en que a priori todos los elementos de la muestra tienen la misma probabilidad de aparición. Partimos de un listado de las unidades de muestreo, las numeramos y seleccionamos un conjunto de números al azar. Este método puede ser reemplazado por una tabla de números aleatorios o por un programa que nos permita aleatorizar. Es un método sencillo que permite estimar parámetros y errores de muestreo, pero necesitamos disponer de un listado completo de la población.

Muestreo sistemático

En este caso seleccionamos los elementos de una manera ordenada, basándonos en una regla sistemática. La forma de seleccionar los individuos dependerá del número de elementos de la población y del tamaño de la muestra. Supongamos una lista de N elementos; si queremos una muestra de n sujetos, ordenamos los elementos de la población y obtenemos el coeficiente de elevación k= N/n. Después se elige al azar un elemento, denominado origen, comprendido entre 1 y k, que nos indica el punto de arranque de la selección. Luego, de forma sistemática tomamos el que esté k lugares después del primero, y así sucesivamente. Como el primer elemento de la muestra es seleccionado al azar, una muestra sistemática permite obtener estimaciones y errores de muestreo. El muestreo sistemático es fácil de aplicar y no siempre es necesario disponer de un listado de los elementos poblacionales. Cuando la población está ordenada según cierta tendencia conocida, cubrimos todos los tipos de unidades. En cambio, si la constante de muestreo está asociada al fenómeno de interés, las estimaciones pueden estar sesgadas.

Muestreo estratificado

Puede ocurrir que se conozca previamente el comportamiento de la característica que se está analizando en la población de referencia; es decir, la población se reparte en subconjuntos tales que la característica considerada en los elementos de cada subconjunto se comporta de forma homogénea. En este caso se puede establecer un tipo de muestreo que utilice este conocimiento. Se estudiará una serie de subpoblaciones o estratos de la población; por tanto, la muestra debe contar con una representación de todos y cada uno de los estratos considerados. En este tipo de muestreo debemos dividir la población en grupos, en función de esa característica relevante, estos grupos serán más homogéneos que la población como un todo. Entonces los elementos de la muestra son seleccionados al azar o mediante un método sistemático dentro de cada estrato.

Muestreo por conglomerados

En este tipo de muestreo se consideran «conglomerados de elementos» en lugar de seleccionar elementos de la población, es decir, se toman al azar grupos de elementos, y la muestra estará formada por todos los sujetos o por n individuos (seleccionados por muestreo aleatorio o sistemático) de los conglomerados seleccionados. En este método, aunque no todos los grupos son muestreados, cada grupo tiene la misma probabilidad de ser elegido, por lo que la muestra es aleatoria. Es útil cuando la población es muy grande y dispersa; sin embargo, las estimaciones son menos precisas, por lo que pueden implicar un mayor error muestral. Supongamos que muestreamos por áreas de residencia. Seguramente los individuos que vivan en la misma área se parecerán (por ejemplo, si consideramos el nivel económico); entonces, la variabilidad entre los elementos obtenidos de las áreas seleccionadas es mayor que la variabilidad obtenida si hacemos un muestreo aleatorio de toda la población. Así pues, utilizando una muestra de conglomerados obtendremos la misma precisión en la estimación que si utilizamos una muestra aleatoria simple, siempre que la variabilidad de los elementos dentro de cada conglomerado sea semejante a la variabilidad poblacional.

El muestreo no probabilístico

En este caso la selección de los elementos de la muestra no es por azar, sino que lo realiza el investigador. Estas muestras son menos representativas de la población que las obtenidas por muestreo probabilístico, pero se consiguen rápidamente y el coste es inferior. La principal desventaja es el riesgo de obtener un sesgo excesivo, que puede hacer imposible generalizar los resultados. Dentro de esta clase de muestreo existen dos tipos:

Muestreo de casos consecutivos

El investigador elige a los sujetos que cumplan los criterios de selección en un intervalo temporal o hasta que se alcance un número de muestra suficiente.

Muestreo de conveniencia

Consiste en seleccionar los elementos más fácilmente accesibles, por ser fáciles de recoger o económico, como por ejemplo incluir voluntarios.

Tipos de variables

Se entiende por variable estadística un símbolo que puede tomar cualquier valor dentro de un conjunto determinado llamado rango o dominio de la variable. En función del tipo de dominio de la variable, pueden clasificarse en variables cualitativas o cuantitativas.

Variables cualitativas

En este caso los valores posibles son de tipo nominal. Por ejemplo, el tipo de hepatitis: A, B, C, etc. Estas variables se representan con diagramas de barras, sectores y pictogramas, y se expresan en porcentajes.

Variables ordinales

Estas variables tienen valores de tipo nominal, pero es posible establecer un orden entre ellos. Por ejemplo, cuando clasificamos el grado de dolor percibido en leve, moderado, grave o muy grave. En ocasiones se pueden clasificar estas variables como escalas numéricas, como en la escala visual analógica del dolor (EVA), de 0 a 10. En estos casos no se aconseja realizar operaciones matemáticas con estos valores. Se expresan en porcentajes. Su representación corresponde a diagramas de barras y en escalera.

Variables cuantitativas

Son las variables que toman por valores cantidades numéricas, con las que se pueden hacer operaciones matemáticas. Se dividen en cuantitativas discretas, que son las que no admiten valores intermedios, sólo valores enteros (por ejemplo, el número de hijos), y cuantitativas continuas, cuando admiten valores intermedios entre dos de sus valores, es decir, valores reales que sólo pueden estar limitados por el método de medida (por ejemplo, la altura de una persona, el peso o las cifras de colesterol).

Las variables cuantitativas se representan con histogramas, polígonos de frecuencia y diagramas acumulados. Se expresan con medidas de centralización (media) y dispersión (desviación estándar).

Análisis de las variables

La forma de recogida de las variables (escala de medida) es fundamental para su posterior análisis, teniendo en cuenta que las variables cuantitativas pueden convertirse en cualitativas en el análisis y que lo idóneo es recoger la información lo más desagregada posible.

Posteriormente hemos de definir los códigos para identificar cada una de las categorías de las variables; por ejemplo, las variables dicotómicas sí/no, pueden adquirir valores 1/0 y, en las variables politómicas, podemos establecer una numeración correlativa desde 1. El dato ausente o no disponible debe recogerse de modo explícito. Después debemos realizar el diseño de una base de datos y establecer el programa estadístico que vamos a utilizar. Antes de iniciar el análisis propiamente dicho, hemos de comprobar que los datos son correctos.

Estrategias de análisis

Se establecerán dependiendo del tipo de estudio:

Análisis de los estudios descriptivos

Son los estudios más frecuentes. La realización del análisis incluye el cálculo de la prevalencia, la relación entre incidencia y prevalencia y los indicadores de asociación o razones de prevalencia. Sin embargo, hemos de tener en cuenta las limitaciones de la prevalencia (comparación difícil entre poblaciones o en periodos de tiempo) (tabla 1).

En ocasiones los diseños transversales se utilizan para estimar la relación entre dos o más variables (estudios de asociación cruzada) en una población en un momento determinado de tiempo. No obstante, dado que las variables se miden de forma simultánea, no podemos determinar la posible relación causa-efecto, algo que sí es posible realizar con otro tipo de análisis estadístico, como el análisis univariante o bivariante.

Más tarde, deberemos exponer la distribución de la enfermedad en función de las características de las personas, el lugar y el tiempo. Hemos de comparar nuestros datos con las características de la enfermedad ya conocidas y elaborar hipótesis a partir de los resultados obtenidos, ya que la gran utilidad de estos estudios es que sirven como base para elaborar estudios longitudinales y analíticos.

El planteamiento de la hipótesis epidemiológica pretende descubrir relaciones entre variables, estableciendo la asociación causal entre una exposición (Ex) y un efecto (Ef); existe tal asociación cuando: 1) Ex es previo a Ef; 2) un cambio en Ex se correlaciona con un cambio en Ef; 3) esta correlación no es consecuencia de que Ex y Ef estén relacionados con un factor subyacente.

Análisis de estudios de casos y controles y estudios de cohortes

• Determinar la magnitud de la asociación. Estos análisis permiten realizar la estimación directa de la incidencia (cohortes) o la indirecta (casos y controles) en forma de incidencia acumulada. Construiremos una tabla de contingencia a partir de la cual extraeremos la magnitud de la asociación o del efecto (tablas 2 y 3).

• Determinar la significación de la asociación y la precisión. Elegiremos las pruebas estadísticas necesarias y acordes con nuestros datos (tabla 4), determinando los intervalos de confianza.

Las pruebas estadísticas se diseñan para contestar a la pregunta de si debe rechazarse la hipótesis nula. Mediante la formulación del contraste de hipótesis y significación estadística de un test, podemos valorar si las observaciones que se han realizado son compatibles o no con la hipótesis de nuestro estudio. El resultado de una prueba estadística es el grado de significación o valor p.

Contraste de hipótesis

• Hipótesis nula: Ho. Se plantea en términos de «no hay diferencias entre grupos» o «no hay relación entre variables analizadas». Mediante la prueba de significación adecuada se intenta rechazar la Ho. Si se consigue rechazar, se acepta una hipótesis alternativa de que «sí hay diferencias o asociación». Se acepta inicialmente como verdadera.

• Hipótesis alternativa: H1. Existen diferencias no explicables por el azar. Es la hipótesis que queremos demostrar. Se somete a prueba. Se acepta si la prueba estadística rechaza la Ho.

• Significación estadística: «p». Es la probabilidad de ocurrencia de la Ho o de que los resultados sean debidos al azar. Probabilidad de equivocarme cuando afirmo que hay una diferencia significativa. Si p <0,05, la diferencia es significativa: rechazamos la Ho y aceptamos la H1. Si p >0,05, no hay diferencia significativa: se acepta la Ho, ya que no se han encontrado evidencias para rechazarla; las diferencias encontradas se deben al azar.

• El nivel de significación alfa es por consenso de 0,05 (cualquier prueba de hipótesis con p <0,05 indica diferencias).

Pruebas estadísticas (tabla 4)

Relaciones entre variables cualitativas. Distribución de Χ2

El test de la ji al cuadrado (Χ2) se utiliza como prueba de hipótesis para evaluar la presencia o ausencia de asociación entre características en una misma muestra de individuos. Permite establecer relaciones entre variables cualitativas con cualquier número de categorías y siempre que los datos estén en forma de frecuencias. La muestra debe tener una magnitud suficiente y las frecuencias esperadas han de ser suficientemente elevadas para que se distribuya según la distribución Χ2.

• Hipótesis nula. Para determinar si dos variables de una tabla son independientes, se comparan los valores observados con los esperados bajo la hipótesis nula. Ho: no existen diferencias entre los resultados obtenidos y los teóricos.

• Cálculo de las frecuencias esperadas (fila *columna/N).

• Cálculo de la fórmula de Χ2 de Pearson: Χ2= ∑ (O-E)2. Este estadístico sigue una distribución Χ2 con un grado de libertad (gl) si la Ho de no asociación entre variables es cierta. (Grados de libertad). Número de cantidades independientes dentro de una serie de valores gl= (f-1) *(c-1).

• Interpretación:

– Si Χ2 obtenido <Χ2 teórico tabla, aceptamos Ho: diferencia no significativa.

– Si Χ2 obtenido >Χ2 teórico tabla, rechazamos Ho: diferencia significativa.

– El valor de Χ2 teórico (para error alfa 0,05) 1 gl= 3,84.

• Cuando las frecuencias esperadas son muy pequeñas al ir en el denominador de la fórmula inflan el valor del estadístico x, hemos de aplicar agrupan filas o columnas hasta que la regla se cumpla. Utilizar corrección de Yates o algún valor esperado es menor de 2, usar el test exacto de Fisher en las tablas 2*2 (tabla 2).

Comparación de dos medias

Para comprobar si hay diferencias entre las medias de las muestras de dos grupos, utilizamos el test de la t de Student:

• Se establece una hipótesis de partida (hipótesis nula Ho), que generalmente asume que el efecto de interés es nulo, o ausencia de diferencia entre las medias (por ejemplo, la presión arterial es la misma en hombres y mujeres, o dos tratamientos para la hipercolesterolemia son igualmente efectivos para la reducción del colesterol).

• Posteriormente, se aplica un test estadístico. Test de la t de Student.

• Se evalúa la probabilidad de haber obtenido los datos observados si esa hipótesis es correcta (valor P). Cuanto menor sea éste, más improbable resulta que la hipótesis inicial se verifique.

El test consiste en comparar el estadístico t experimental (valor t obtenido con nuestra muestra) con la t teórica (n1+n2-2) gl (valor teórico según los grados de libertad: lo proporciona el programa estadístico que usemos, o podemos buscarlo en las tablas teóricas de la distribución t de Student), de forma que la t experimental tiene que ser menor que la t teórica, para aceptar la Ho.

Objetivos fundamentales del análisis entre dos variables cuantitativas

• Determinar si las dos variables están correlacionadas

Es decir, determinar si los valores de una variable tienden a ser más bajos o más altos para valores más altos o más bajos de la otra variable.

Comparación entre dos variables cuantitativas. Cuando tienen una relación lineal directa, el aumento de una afecta a la otra. La fuerza de la correlación se expresa con un número llamado coeficiente de correlación de Pearson, simbolizado con una r, que puede variar entre –1 y 1. Una relación más sólida tendrá un coeficiente de correlación de Pearson más próximo a –1 o a 1. Cuando el valor es negativo, la correlación es negativa; es decir, un valor más alto de una de las variables está asociado a un valor inferior de la otra. La hipótesis nula declara que r= 0.

• Poder predecir el valor de una variable dado un valor determinado de la otra variable

La regresión lineal simple permite poder predecir el valor de una variable dado un valor determinado de la otra. Partimos de una variable aleatoria o de respuesta Y (dependiente) y de una variable predictora X (independiente).

El primer paso es visualizar la relación existente entre ambas variables mediante un gráfico de dispersión (nube de puntos). El problema de regresión lineal es definir una recta que se ajuste a la nube de puntos (la recta que mejor se ajuste a los datos) y que pueda ser utilizada para poder predecir los valores de Y en función de los de X.

Se dice que en una muestra existe regresión de los valores de una variable con respecto a otra cuando hay alguna «línea de regresión» que se ajusta más o menos a su «nube de puntos».

La regresión es un instrumento potente porque puede demostrar la asociación entre muchas variables explicativas y la variable respuesta, y puede ponderar el efecto independiente de cada una de ellas.

Pruebas no paramétricas

Las variables que no se distribuyen normalmente contrastan la significación a través de pruebas no paramétricas. Su aplicación no precisa la hipótesis de normalidad, que no tiene que ser verificada (de ahí que sean test más generales) ni comprobada. El cálculo es más rápido cuando las muestras constan de pocos elementos.

Cuando las variables son normales (en cuyo caso ambos métodos son válidos), los métodos no paramétricos tienen una potencia relativa del 95% respecto de los paramétricos.

Un ejemplo de pruebas no paramétricas es la prueba de Mann-Whitney para la comparación de medias. Ordena todos los resultados individuales en la muestra y luego compara la suma de rangos (posiciones) entre los grupos. La hipótesis nula establece que las sumas de rangos en cada grupo no difieren); la prueba de Kruskal-Wallis, similar al ANOVA, pero con datos ordenados: compara varios grupos para comprobar si sus sumas de rangos son similares.

Cuando los datos no son normales o cuando se ha recogido únicamente el orden, se puede usar la prueba de correlación de Spearman. Una vez ordenados los datos, puede estudiarse su correlación y contrastarse la hipótesis nula de no correlación entre los datos ordenados.

 

RECOMENDACIONES PRÁCTICAS

  • Para que una muestra sea representativa de la población debe existir independencia en la selección de los elementos que la forman y, además, todos ellos han de tener la misma probabilidad de ser incluidos en la muestra.
  • Para que un estudio tenga la validez y fiabilidad que permita generalizar los resultados de la muestra a la población, es necesario que previamente se hayan realizado el cálculo del tamaño de la muestra y la elección de la muestra de forma correcta.
  • Mientras que el riesgo relativo mide el riesgo de desarrollar la enfermedad en individuos expuestos a un factor de riesgo respecto a los que no lo están, el riesgo atribuible mide el exceso de riesgo en los expuestos respecto a los que no lo están, o riesgo de padecer la enfermedad atribuible al factor de riesgo.
  • El riesgo relativo únicamente puede calcularse directamente en los estudios de cohortes y experimentales, estimándose en un estudio de casos y controles mediante la odds ratio.
  • Mediante el contraste de hipótesis y la significación estadística de un test podemos valorar si las observaciones que se han realizado son compatibles o no con la hipótesis de nuestro estudio.

 

Bibliografía

Argimon JM, Jiménez J. Objetivo del estudio. En: Edide SL. Métodos de investigación clínica y epidemiológica, 3ª ed. Madrid: Elsevier, 2000.

Armitage P, Berry G, Mattews JNS. Statistical Methods in Medical Research, 4.ª ed. Oxford: Blackwell Science, 2002.

Dawson GF. Interpretación fácil de la bioestadística. La conexión entre la evidencia y las decisiones médicas. Barcelona: Elsevier España, 2009.

Kleinbaum DG, Kupper LL, Morgenstern H. Epidemiologic Research. Principles and Quantitative Methods. Belmont (California): Lifetime Learning Publications, Wadsworth, 1982.

Martín Andrés A, Luna del Castillo JD. Bioestadística para las ciencias de la salud. Granada: Norma-Capitel, 2004.

Milton JS. Estadística para biología y ciencias de la salud. Madrid: McGraw-Hill, 2001.

Rebagliato M, Ruiz I, Arranz M. Metodología de investigación en epidemiología. Madrid: Díaz de Santos, 1996.

Rivas Moya T, Mateo MA, Ríus Díaz F, Ruiz M. Estadística aplicada a las ciencias sociales: teoría y ejercicios (EAC). Málaga: Secretariado de Publicaciones de la Universidad de Málaga, 1991.

Seoane T, Martín JL, Martín-Sánchez E, Lurueña-Segovia S, Alonso FJ. Selección de la muestra: técnicas de muestreo y tamaño muestral. Revista Semergen. 2007; 33(7): 356-361.

Villar Álvarez F, Banegas Banegas JR, González Enríquez J, Martín Moreno JM, Rodríguez Artalejo F. Diseño y análisis epidemiológico. Revista ROL de Enfermería. 1987; 112: 13-17.

Información adicional

  • Autor: F.J. Alonso Moreno * M.C, Gómez González ** F.J. Félix Redondo *** * Especialista en Medicina Familiar y Comunitaria. Médico de Familia del Centro de Salud de Sillera (Toledo) ** Especialista en Medicina Preventiva y Salud Pública. Coordinadora de la Unidad de Medicina Preventiva. Hospital San Pedro de Alcántara (Cáceres) *** Especialista en Medicina Familiar y Comunitaria. Médico de Familia. Centro de Salud Villanueva de la Serena Norte. Villanueva de la Serena (Badajoz)
Valora este artículo
(1 Voto)
Muestra y análisis de variables - 5.0 out of 5 based on 1 vote

Deja un comentario

Siete Días Médicos es una web para profesionales sanitarios.
En ningún caso se publicarán ni se responderán consultas médicas realizadas por pacientes.

BOTON LOGO 7DMLa revista Siete Días Médicos y su web son un producto de Ediciones Mayo S.A. destinado a los profesionales de la atención primaria. Los contenidos de la revista y la web requieren de una formación especializada para su correcta interpretación. En ningún caso la información proporcionada por Siete Días Médicos reemplazará la relación de los profesionales médicos con los pacientes.

Web Médica Acreditada. Ver más información

 

 

Comunidad