Factor estérico (P) es un término utilizado en teoría de la colisión.
Se define como el cociente entre el valor experimental de la constante de velocidad y la predicha por la teoría de colisión. También se puede definir como la relación entre el factor de preexponencial y la frecuencia de colisión , y es más a menudo menor que la unidad. el factor estérico puede interpretarse como la relación de la sección transversal de las colisiones reactivas a la sección transversal total de colisiones. Por lo general, cuanto más complejo es el reactivo moléculas , el menor de los factores estéricos. Sin embargo, algunas reacciones presentan factores estéricos mayor que la unidad: el arpón reacciones , que implican que los electrones de los átomos de cambio, produciendo iones. La desviación de la unidad puede tener diferentes causas: las moléculas no son esféricas, diferentes geometrías así son posibles, no toda la energía cinética se entrega en el lugar correcto, la presencia de un disolvente (cuando se aplica a las soluciones) ... Cuando la teoría de las colisiones se aplica a las reacciones en la solución de la jaula de disolvente tiene un efecto sobre las moléculas de reactivo, ya que varias colisiones pueden tener lugar en un solo encuentro, lo que lleva a predecir factores preexponencial ser demasiado grande. ρ valores mayores que la unidad se puede atribuir a las favorables contribuciones entrópica. Por lo general, no hay forma sencilla de calcular con exactitud los factores estéricos sin trayectoria o realizar cálculos de dispersión. En cinética química , el factor preexponencial preexponencial o factor A es la constante preexponencial de la ecuación de Arrhenius , una relación empírica entre la temperatura y coeficiente de velocidad . Por lo general, designado por A cuando se determina a partir de experimento, mientras que Z se suele dejar de frecuencia de colisión . Para una reacción de primer orden que tiene unidades de factor de frecuencia.
s-1,
por eso a menudo se llama
El factor de frecuencia, A, depende de la frecuencia con las moléculas chocan cuando todas las concentraciones son de 1 mol / L y de si las moléculas están bien orientadas cuando chocan. frecuencia de colisión se define en la cinética química , en el fondo de la cinética teórica, ya que el número medio de colisiones entre las moléculas de reaccionar por unidad de tiempo. Su símbolo es Z.
A diferencia del factor de preexponencial , A, que es una magnitud empírica, Z es una magnitud teórico, calculado desde un principio. Cuanto más se acerque a la Z, mejor una determinada teoría de la cinética química. Para una fase de gas de reacción bimolecular Z es
• • • •
N A es el número de átomos de B por unidad de volumen (m ^ 3) σ AB es la reacción de la sección transversal k B es constante de Boltzmann μ AB es la masa reducida de los reactivos
Teoría de Colisiones
De acuerdo a la Teoría de Colisiones las reacciones ocurren cuando hay choques efectivos entre moléculas donde la rapidez de la reacción es proporcional al número de choques por unidad de tiempo multiplicada por la fracción del número total de choque que son efectivos.
Los choques efectivos dependen de la naturaleza de los reactivos y su concentración, la orientación cuando ocurre el choque y la temperatura que afecta la energía cinética de las moléculas. Ejemplo: 2 moléculas en la reacción: A + B º P que ocurre en un solo paso, podemos establecer la ley de rapidez de segundo orden y con molecularidad de dos como: r = k [A] [B]
Si la reacción ocurre en un solo paso a través de choques moleculares, podemos predecir a base de la teoría de colisión la ley de rapidez de reacción. Ejemplo: Efecto de orientación.
La teoría de las colisiones explica que la velocidad de una reacción química es función del número de choques que se efectúan entre las moléculas de reactivos con
determinada energía. Imaginemos un recipiente cerrado en el cual introducimos dos gases, A y B, a temperaturas bajas las moléculas se mezclan homogéneamente en función de sus densidades; así si los dos gases son ligeros, como N2 y O2 la composición será la misma en cualquier punto. Si calentamos este recipiente las moléculas aumentan su energía y en consecuencia se llevarán a cabo un mayor número de choques dentro del recipiente. A una temperatura determinada la fuerza y el número de choques es tal que las moléculas de A y B tenderán a disminuir y a la vez un nuevo tipo de moléculas aparecerán (los productos). El número de moléculas de A y B o las nuevas que aparecen por combinación de A y B están ligadas a través de la estequiometría y el mecanismo de la reacción. Si llamamos a la velocidadde la reacción:
rA = rB ,
[A] [B]
entonces la velocidad de aparición (o desaparición de A o B) de las nuevas moléculas es función del número de choques entre A y B, los cuales a su vez dependen de la concentración de A y B. En estudios de cinética se observa que la velocidad de reacción se ve afectada en la practica con variaciones de presión y de temperatura. Sin embargo dichos cambios son mucho más significativos a las fluctuaciones de las temperaturas y por lo tanto se suele hacer el estudio dando prioridad a esta variable y despreciando los cambios que experimenta a las variaciones de presión (esto se apoya en el supuesto de que los cambios de presión aplicados en el sistema son pequeños y por lo tanto se pueden considerar despreciables). Sin embargo es muy sensible a la temperatura. La ecuación que relaciona la temperatura con la velocidad de una reacción (constante de velocidad) es la ecuación de Arrhenius que se expresa mediante: Donde 'A' es el factor de frecuencia, 'Ea' es la energía de activación, R es la constante de los gases y 'T' es la temperatura. De acuerdo con Arrhenius, la ecuación anterior indica que las moléculas deben adquirir una cierta energía Ea antes de que puedan reaccionar, siendo el factor de Boltzmann, exp(-Ea/RT), la fracción de moléculas que están en condiciones de alcanzar la energía necesaria. Se suele suponer que el factor pre exponencial 'A' o factor de frecuencia es un valor constante. Sin embargo como se verá mas adelante, este supuesto no es del todo correcto. Igualmente se asume que la energía de activación es un valor constante, pero en la realidad el valor de esta constante es un promedio y cuyo valor se obtiene de:
Teoría de colisiones para las reacciones gaseosas.
Las velocidades de reacción se han medido en soluciones gaseosas, líquidas y sólidas. Las más investigadas son las líquidas debido a su importancia pero desde un punto de vista teórico es más asequible un enfoque mediante la teoría estadística de gases. La primera teoría postula para reacciones gaseosas que para tener reacción, las moléculas deben aproximarse unas a otras de modo que colisionen. En ciertas ocasiones dicha interacción produce una reorganización de los enlaces químicos, formando nuevas moléculas a partir de las primeras. La velocidad de reacción equivale al número de choques por segundo, multiplicado por la fracción de choques que se puedan considerar efectivos para producir el cambio químico. En este texto se presentan los resultados mas significativos de esta teoría, los cuales se presentan a continuación: Otros desarrollos nos llevan a una ecuación del tipo: Donde P es un factor estérico o de probabilidad, que da cuenta de una zona reactiva de interacción molecular. P es menor a la unidad en varios ordenes de magnitud. Si los cuerpos son 2 átomos, estas ecuaciones son bastante precisas. Sin embargo el defecto fundamental de la teoría de colisiones es que considera a las moléculas reaccionantes como esferas rígidas mas que como estructuras fluctuantes de núcleos y electrones. El factor P da cuenta de esta clase de deficiencia.
Haciendo un desarrollo por medio de teoría del estado de transición por medio de complejo activado de modo que A + B (AB)* Productos, se llega a un resultado del tipo:
Determinación experimental del orden de reacción y de la constante de velocidad de reacción.
Sea la reacción del tipo A Productos. Como se vio anteriormente, este sistema es de fácil solución si la reacción se lleva a cabo en un paso. Pero no siempre se cuenta con este tipo de información y es necesario determinar experimentalmente los valores de ´k´y 'n'. Por tanto se debe resolver la ecuación del tipo:
Para esto se requiere calcular en pequeños intervalos de tiempo las distintas variaciones de concentración. Es necesario para esto construir una tabla de concentración en función del tiempo. Para medir estas dos variables se requiere de alguna técnica experimental que permita tomar estos datos. Esto no es siempre posible ya que medir la concentración en el tiempo de un reactivo o producto puede no ser trivial. Una posibilidad es controlar el pH y por tanto calcular la concentración de H 3O+ o OH-. Otra posibilidad es medir por absorbancia. Cualquiera sea la técnica, asumiremos que es posible obtener los datos de concentración en el tiempo. Asumiendo que la expresión de velocidad puede escribirse como intervalos de concentración sobre intervalos de tiempo y aplicando logaritmo natural a la expresión anterior se tiene: Esta expresión corresponde a una ecuación de una recta del tipo Y = nX + b donde: Por tanto se puede hacer regresión lineal sobre 'X' e 'Y' y así se pueden despejar los valores de 'k' y de 'n' despejando los valores. Una pregunta interesante es cuestionar que sucede para A + B Para este sistema velocidad de desaparición de A es del tipo:
Productos.
Para resolver este problema se deben determinar los valores de ´k´, ´n´ y ´m´. Es necesario realizar varias corridas de datos de concentración versus tiempo de modo que al tomar dos corridas de datos, se tenga para 'A' concentraciones iniciales distintas y para 'B' concentraciones iguales. De este modo para ambas velocidades de reacción (correspondientes a cada una de las corridas), la concentración de 'B' tiene la misma incidencia y por tanto los cambios de velocidad son perceptibles solo para 'A'. Así se puede obtener un sistema del tipo: Esta expresión se resuelve del mismo modo que en el caso de tener un solo reactivo, obteniendo el valor de 'n'. De igual forma se fija la concentración de A para dos nuevas corridas de datos y se varía B de modo que se puede obtener el valor de 'm'. Finalmente, tomando cualquier corrida de datos se puede calcular el valor de 'k'. Esta metodología es aplicable a 3 o más reactivos, de modo que tan solo una variable varíe tomando un número de corridas adecuado. Problema:
Los datos siguientes dan la concentración del butadieno gaseoso a 500 K en función del tiempo. Determine el orden de la reacción y calcular la constante de velocidad. Datos:
t (seg)
C (mol/lt)
195
1.62E-02
604
1.47E-02
1246
1.29E-02
2180
1.10E-02
4140
8.90E-03
4655
8.00E-03
6210
6.80E-03
8135
5.70E-03
Solución: Tomando la ecuación:
Se construye la siguiente tabla:
t (seg)
C (mol/lt)
dC
dt
ln(C) = X
ln(-dC/dt) = Y
195
1.62E-02
604
1.47E-02
-1.50E-03
409
-4.220
-12.516
1246
1.29E-02
-1.80E-03
642
-4.351
-12.785
2180
1.10E-02
-1.90E-03
934
-4.510
-13.105
4140
8.90E-03
-2.10E-03
1960
-4.722
-13.747
4655
8.00E-03
-9.00E-04
515
-4.828
-13.257
6210
6.80E-03
-1.20E-03
1555
-4.991
-14.075
8135
5.70E-03
-1.10E-03
1925
-5.167
-14.375
Haciendo regresión lineal sobre los valores de X e Y se construye el siguiente gráfico y se tiene despejando los valores de ´k´y ´n´:
ln (-dC/dt) = -4,5398 + 1,8933 ln(C) Correlación: 0,951 Covarianza: 0,222
Luego k = 1,067E-2 y n = 1,89 es
aproximadamente 2. Estrategia probabilística: el diagnóstico médico y la interpretación de las pruebas de laboratorio poseen frecuentemente un considerable nivel de incertidumbre, lo cual puede ser representado como asociación probabilística entre variables clínicas. Rara vez, poseemos certeza absoluta en medicina, ejercemos de hecho, una ciencia inexacta e incierta. La medicina es una ciencia de probabilidades y un arte de manejar la incertidumbre (SirWillian Osler) (9,10).
Cuando los médicos usamos el interrogatorio y la exploración física para llegar a un diagnóstico, expresamos esta incertidumbre o probabilidad no en forma de un porcentaje real, sino más bien en términos como “casi siempre”, “frecuentemente”, “a veces” o “rara vez”. Sin embargo, por no ser cuantitativos estos términos, no se les puede asignar un significado estandarizado. La técnica más satisfactoria para interpretar los datos clínicos es el uso formal de probabilidades, la relación de probabilidades y la combinación cuantitativas de ellas. Para combinar los hallazgos clínicos en forma de probabilidades se requiere una rigurosa definición de enfermedad. Esta definición, referida como la prueba de oro, se basa generalmente en hallazgos radiológicos, histológicos, bioquímicos o muchas veces en criterios clínicos únicamente. La primera tarea en la aplicación de la estrategia probabilística es estimar la probabilidad inicial de todas las enfermedades de interés a partir de los datos demográficos del paciente (género, edad, país, grupo poblacional, factores de riesgo) y de la presentación de los hallazgos clínicos. El análisis cuidadoso de esta probabilidad es crítico, porque su valor va a influenciar en grado importante la interpretación de cualquier hallazgo clínico o pruebas de laboratorio posteriores. La segunda tarea es determinar la frecuencia de los hallazgos asociados con la enfermedad bajo hipótesis y con las enfermedades alternas. Se trata de responder preguntas sobre la frecuencia de asociación de un hallazgo con la entidad clínica. La sensibilidad y especificidad de los hallazgos asociados con las hipótesis diagnósticas generan las probabilidades condicionales. Los hallazgos clínicos y los resultados de laboratorio pueden ser interpretados de acuerdo con principios matemáticos. El resultado del análisis cuantitativo, después de interpretar las ayudas diagnósticas teniendo en cuenta la probabilidad inicial y las probabilidades condicionales, conduce a estimar la probabilidad de que el paciente presente la enfermedad, concepto conocido como probabilidad posterior. Los valores numéricos de estos cálculos están basados en las cifras de prevalencia de cada enfermedad hipotética, en las condiciones del paciente y en la sensibilidad o especificidad de las pruebas diagnósticas relativas a la enfermedad en las condiciones del laboratorio. Esta información puede estar disponible en estadísticas regionales, en la literatura o en estimativos de las probabilidades condicionales, cuando no se conocen. La estrategia probabilística puede ser una herramienta útil, porque proporciona un significado explícito de la interpretación del hallazgo o prueba diagnóstica y por consiguiente ayuda a guiar el proceso diagnóstico, o en casos de mayor complejidad,
genera hipótesis diagnósticas a partir de la frecuencia de asociación de los hallazgos clínicos. Dada la rica interrelación de nuestro razonamiento clínico, nosotros utilizamos todas las estrategias. A causa de que nuestra práctica clínica generalmente es repetitiva y sencilla, muchas de nuestras decisiones son guiadas por reglas determinísticas aprendidas. El razonamiento probabilístico o el determinístico puede ser útil para iniciar inferencias de las causas de los efectos observados o para identificar hipótesis razonables que formarán el contexto del razonamiento causal. En general, las estrategias de razonamiento son complementarias. Los modelos probabilísticos, son fuertes en la generación de hipótesis diagnósticas, críticamente dependiente de la prevalencia de la enfermedad en el grupo de población del paciente, pero una vez la hipótesis ha sido propuesta el razonamiento causal permite verificar la causa que explique la observación. Aunque el razonamiento probabilístico ha dominado la discusión del proceso diagnóstico, a causa de la propuesta de corroboración iterativa de hipótesis, nuestro conocimiento del proceso diagnóstico aún permanece muy limitado. El proceso diagnóstico
El proceso diagnóstico, según la epidemiología clínica, es un proceso de estimación probabilística. La recolección de datos (síntomas, signos, pruebas diagnósticas), termina en una expresión probabilística que estima la probabilidad de que un paciente determinado, tenga la enfermedad (E), y se encuentra entre 0 (certeza absoluta ausencia de enfermedad) y 1 (certeza absoluta de su presencia) ( Figura 1). La medicina no es una ciencia exacta por ello los médicos rara vez pueden predecir un resultado con absoluta certeza. La incertidumbre acompaña tanto el proceso diagnóstico como terapéutico y el modo de cuantificar esta incertidumbre es mediante las probabilidades. No todos los pacientes con glucemia elevada son diabéticos, ni una sangre oculta positiva en heces significa con seguridad un cáncer de colon (11, 12).
0 __________________________1 P (E)
Figura1. El diagnóstico, una estimación probabilística de enfermedad.
Hay dos maneras principales de entender el concepto de probabilidad (13): •
Frecuentista (objetiva): la probabilidad de ocurrencia de un suceso, puede definirse como la proporción de veces (frecuencia relativa) que ocurriría dicho suceso si se repitiese un experimento o una observación en un número grande de ocasiones bajo condiciones similares. Si por ejemplo, de cada 1000 personas de 60 años 50 desarrollan cáncer gástrico. La probabilidad de este cáncer en esta población es: 50/1000: 0.05 :5%
•
Bayesiano (subjetivo): refleja el grado de certeza que se posee sobre un suceso. Es personal. Cuando un individuo llega a nuestra consulta, tenemos una idea a priori sobre la probabilidad de que tenga una enfermedad (Nos ayudamos de la incidencia o prevalencia). Una vez se aplica una prueba diagnóstica, nos aportará una nueva información. La misma prueba ha sido evaluada con anterioridad en sanos y enfermos. Así, de modo frecuentista se ha estimado sensibilidad (verdaderos enfermos) y especificidad (verdaderos sanos). En función del nuevo resultado tenemos una nueva idea (a posteriori) sobre la probabilidad de que esté enfermo. Nuestra opinión a priori ha sido modificada por el resultado de un experimento (con ayuda de los índices predictivos, a través del teorema de Bayes).
La inferencia bayesiana es de gran utilidad en la valoración de pruebas diagnósticas en la toma de decisiones clínicas dentro del proceso del diagnóstico clínico, y regresaremos a él posteriormente. Las pruebas diagnósticas se aplican para aumentar el conocimiento sobre la probabilidad de una enfermedad en el paciente, pero es imprescindible conocer cómo varía esa probabilidad a medida que se adquiere mayor información y ello va ligado a un principio básico: la interpretación de cualquier resultado de una prueba diagnóstica depende de la probabilidad de la enfermedad antes de realizar las pruebas, es decir la probabilidad a priori o probabilidad pre-prueba o previa. Probabilidad pre-prueba (14)
La probabilidad de presentar la enfermedad antes del examen se llama probabilidad pre prueba o probabilidad pre-examen. Si un individuo es totalmente asintomático para alguna enfermedad, la probabilidad pre-prueba es igual a la prevalencia de la condición en la población (Prevalencia poblacional). Pero, si es un individuo que se presenta con una dolencia, la probabilidad pre- examen será dada por cada uno de los apartes de la historia clínica y del examen físico; cada dato será una prueba diagnóstica que aumentará o disminuirá la probabilidad de un trastorno objetivo. A la hora de estimar la probabilidad de una enfermedad, la experiencia personal es la que más influye, pero también depende de la experiencia publicada y de las características particulares de cada paciente. Muestreo probabilístico
Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser elegidas. Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo probabilísticos encontramos los siguientes tipos: El método otorga una probabilidad conocida de integrar la muestra a cada elemento de la población, y dicha probabilidad no es nula para ningún elemento.
Los métodos de muestreo no probabilisticos no garantizan la representatividad de la muestra y por lo tanto no permiten realizar estimaciones inferenciales sobre la población. (En algunas circunstancias los métodos estadísticos y epidemiológicos permiten resolver los problemas de representatividad aun en situaciones de muestreo no probabilistico, por ejemplo los estudios de caso-control, donde los casos no son seleccionados aleatoriamente de la población.) Entre los métodos de muestreo probabilísticos más utilizados en investigación encontramos: • • • •
Muestreo aleatorio simple Muestreo estratificado Muestreo sistemático Muestreo polietápico o por conglomerados -2-
Muestreo aleatorio simple:
El procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de números aleatorios, números aleatorios generados con una calculadora u ordenador, etc.) se eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido. Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la población que estamos manejando es muy grande. Muestreo aleatorio sistemático:
Este procedimiento exige, como el anterior, numerar todos los elementos de la población, pero en lugar de extraer n números aleatorios sólo se extrae uno. Se parte de ese número aleatorio i, que es un número elegido al azar, y los elementos que integran la muestra son los que ocupa los lugares i, i+k, i+2k, i+3k,...,i+(n-1)k, es decir se toman los individuos de k en k, siendo k el resultado de dividir el tamaño de la población entre el tamaño de la muestra: k= N/n. El número i que empleamos como punto de partida será un número al azar entre 1 y k. El riesgo este tipo de muestreo está en los casos en que se dan periodicidades en la población ya que al elegir a los miembros de la muestra con una periodicidad constante (k) podemos introducir una homogeneidad que no se da en la población. Imaginemos que estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5 primeros son varones y los 5 últimos mujeres, si empleamos un muestreo aleatorio sistemático con k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una representación de los dos sexos. Muestreo aleatorio estratificado:
Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de residencia, el sexo, el estado civil, etc.). Lo que se pretende con este tipo de muestreo es asegurarse de que todos los estratos de interés estarán representados adecuadamente en la muestra. Cada estrato funciona independientemente, pudiendo aplicarse dentro de ellos el muestreo aleatorio simple o el estratificado para elegir los elementos concretos que formarán parte de la muestra. En ocasiones las dificultades que plantean son demasiado grandes, pues exige un conocimiento detallado de la población. (Tamaño geográfico, sexos, edades,...). La distribución de la muestra en función de los diferentes estratos se denomina afijación, y puede ser de diferentes tipos: Afijación Simple: A cada estrato le corresponde igual número de elementos muéstrales. Afijación Proporcional: La distribución se hace de acuerdo con el peso (tamaño) de la población en cada estrato. Afijación Optima: Se tiene en cuenta la previsible dispersión de los resultados, de modo que se considera la proporción y la desviación típica. Tiene poca aplicación ya que no se suele conocer la desviación.
-3Muestreo aleatorio por conglomerados:
Los métodos presentados hasta ahora están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muéstrales son los elementos de la población. En el muestreo por conglomerados la unidad muestral es un grupo de elementos de la población que forman una unidad, a la que llamamos conglomerado. Las unidades hospitalarias, los departamentos universitarios, una caja de determinado producto, etc., son conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no naturales como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas suele hablarse de "muestreo por áreas". El muestreo por conglomerados consiste en seleccionar aleatoriamente un cierto numero de conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en investigar después todos los elementos pertenecientes a los conglomerados elegidos. -4Métodos de muestreo no probabilísticos
A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente costoso y se acude a métodos no probabilísticos, aun siendo conscientes de que no sirven para realizar generalizaciones, pues no se tiene certeza de que la muestra extraída
sea representativa, ya que no todos los sujetos de la población tienen la misma probabilidad de se elegidos. En general se seleccionan a los sujetos siguiendo determinados criterios procurando que la muestra sea representativa. · Muestreos No Probabilísticos: • • • • •
de Conveniencia de Juicios por Cuotas de Bola de Nieve Discrecional
Muestreo por cuotas:
También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de un buen conocimiento de los estratos de la población y/o de los individuos más "representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad de aquél. En este tipo de muestreo se fijan unas "cuotas" que consisten en un número de individuos que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25 a 40 años, de sexo femenino y residentes en Gijón. Una vez determinada la cuota se eligen los primeros que se encuentren que cumplan esas características. Este método se utiliza mucho en las encuestas de opinión. Muestreo opinático o intencional:
Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras "representativas" mediante la inclusión en la muestra de grupos supuestamente típicos. Es muy frecuente su utilización en sondeos preelectorales de zonas que en anteriores votaciones han marcado tendencias de voto. Muestreo casual o incidental:
Se trata de un proceso en el que el investigador selecciona directa e intencionadamente los individuos de la población. El caso más frecuente de este procedimiento el utilizar como muestra los individuos a los que se tiene fácil acceso (los profesores de universidad emplean con mucha frecuencia a sus propios alumnos). Bola de nieve:
Se localiza a algunos individuos, los cuales conducen a otros, y estos a otros, y así hasta conseguir una muestra suficiente. Este tipo se emplea muy frecuentemente cuando se hacen estudios con poblaciones "marginales", delincuentes, sectas, determinados tipos de enfermos, etc. -5-
Muestreo Discrecional · A criterio del investigador los elementos son elegidos sobre lo que él cree que pueden aportar al estudio. · Ej. : muestreo por juicios; cajeros de un banco o un supermercado; etc. Ventajas e inconvenientes de los distintos tipos de muestreo probabilístico
CARACTERISTICAS
VENTAJAS •
•
Se selecciona una muestra de tamaño n de una población de N Aleatorio simple unidades, cada elemento tiene una probabilidad de inclusión igual y conocida de n/N.
•
•
Conseguir un listado de los N elementos de la población
•
Determinar tamaño muestral n. Sistemático
Definir un intervalo k= N/n.
•
Elegir un número aleatorio, r, entre 1 y k (r= arranque aleatorio). Seleccionar los elementos de la lista. Estratificado
En ciertas ocasiones resultará conveniente estratificar la muestra según ciertas variables de interés. Para ello debemos conocer la composición estratificada de la
•
INCONVENIENTES
Sencillo y de fácil comprensión. Cálculo rápido Requiere que se posea de medias y de antemano un varianzas. listado completo de toda la población. Se basa en la Cuando se trabaja con teoría muestras pequeñas es estadística, y posible que no represente a la por tanto población existen adecuadamente. paquetes informáticos para analizar los datos Fácil de aplicar. No siempre es necesario tener un listado de Si la constante de toda la muestreo está asociada población. con el fenómeno de interés, las Cuando la estimaciones población está obtenidas a partir de la ordenada muestra pueden siguiendo una contener sesgo de tendencia selección conocida, asegura una cobertura de unidades de todos los tipos. Tiende a asegurar que la muestra represente adecuadamente a la población en función de unas variables
•
Se ha de conocer la distribución en la población de las variables utilizadas para la estratificación.
seleccionadas. •
población objetivo a hacer un muestreo. Una vez calculado el tamaño muestral apropiado, este se reparte de manera proporcional entre los distintos estratos definidos en la población usando una simple regla de tres.
•
•
Se realizan varias fases de muestreo sucesivas (polietápico) Conglomerados
La necesidad de listados de las unidades de una etapa se limita a aquellas unidades de muestreo seleccionadas en la etapa anterior.
•
Se obtienen estimaciones más precisa Su objetivo es conseguir una muestra lo más semejante posible a la población en lo que a la o las variables estratificadoras se refiere. Es muy eficiente cuando la población es muy grande y dispersa. No es preciso tener un listado de toda la población, sólo de las unidades primarias de muestreo.
•
•
El error estándar es mayor que en el muestreo aleatorio simple o estratificado. El cálculo del error estándar es complejo.