Comparación de medio en términos de significación estadística. Los principales términos y conceptos de estadísticas médicas.

Hoy en día, es realmente demasiado simple: puede acercarse a la computadora y, prácticamente, sin saber lo que hace, cree una velocidad razonable y sin sentido con una velocidad verdaderamente increíble. (J. Boxeo)

Los principales términos y conceptos de estadísticas médicas.

En este artículo presentamos algunos conceptos clave de estadísticas, relevantes en la investigación médica. En más detalle, los términos se entienden en los artículos pertinentes.

Variación

Definición. El grado de dispersión de datos (signos) en términos de valores.

Probabilidad

Definición. La probabilidad es el grado de capacidad de un determinado evento en ciertas condiciones.

Ejemplo. Expliquemos la definición del término en la propuesta "la probabilidad de recuperación al aplicar preparación medicinal Arimidex es del 70% ". El evento es la "recuperación del paciente", la condición "El paciente adopta arimidex", el grado de posibilidad es del 70% (aproximadamente hablando, de las 100 personas que aceptan Arimidex, se recuperan 70).

Probabilidad acumulada

Definición. La probabilidad acumulada de supervivencia (probabilidad acumulativa de sobrevivir) en el tiempo t es la misma que la proporción de sobrevivientes de pacientes en este momento.

Ejemplo. Si dice que la probabilidad acumulada de supervivencia después de la tasa de tratamiento de cinco años es de 0.7, entonces significa que el 70% del número inicial de pacientes en consideración se mantuvo, y el 30% murió. En otras palabras, de cada cien personas, 30 murieron durante los primeros 5 años.

Tiempo para evento

Definición. El tiempo para el evento es el tiempo expresado en algunas unidades, que ha pasado desde hace algún tiempo inicial antes del inicio de un determinado evento.

Explicación. Como unidades de tiempo en investigación médica Realizar días, meses y años.

Ejemplos típicos de puntos de tiempo iniciales:

    inicio de la observación del paciente.

    realizando tratamiento quirúrgico.

Ejemplos típicos de los eventos en consideración:

    progresión de enfermedad

    el surgimiento de la recaída.

    muerte del paciente.

Muestra

Definición. Parte de la población obtenida por selección.

De acuerdo con los resultados del análisis de la muestra, existen conclusiones sobre toda la población, que es legítimo solo si la selección fue al azar. Dado que la selección aleatoria de la población es casi imposible de implementar, debe esforzarse por garantizar que la muestra sea al menos representativa en relación con la población.

Muestras dependientes e independientes.

Definición. Las muestras en las que se obtuvieron los objetos del estudio independientemente entre sí. Una alternativa a muestras independientes - Muestras dependientes (conectadas, par).

Hipótesis

Hipótesis bilateral y unilateral.

Primero, explique la aplicación de la hipótesis del término en las estadísticas.

El propósito de la mayoría de los estudios es verificar la verdad de alguna aprobación. El propósito de la prueba de los medicamentos es la mayor frecuencia de verificar la hipótesis de que un medicamento es más eficiente que el otro (por ejemplo, Arimidex es más efectivo que el tamoxifeno).

Para legendar el rigor del estudio, la declaración verificable se expresa matemáticamente. Por ejemplo, si A es el número de años que vivirá un paciente que aceptó Arimidex y, en ese momento, el número de años que vivirá un paciente tomando Tamoxifen, entonces la hipótesis comprobada se puede escribir como un\u003e t.

Definición. La hipótesis se llama bilateral (2 lados), si consiste en la igualdad de dos valores.

Un ejemplo de hipótesis de dos lados: a \u003d t.

Definición. La hipótesis se llama unilateral (1 cara), si consiste en la desigualdad de dos valores.

Ejemplos de hipótesis de una sola vía:

Datos dicotómicos (binarios)

Definición. Datos expresados \u200b\u200bsolo por dos valores alternativos permisibles.

Ejemplo: paciente "saludable" - "enfermo". El edema "es" - "No".

Intervalo de confianza

Definición. El intervalo de confianza (intervalo de confianza) para algún valor es el rango alrededor del valor del valor en el que se encuentra el valor verdadero de este valor (con un cierto nivel de confianza).

Ejemplo. Deje que el valor en estudio sea el número de pacientes por año. En promedio, su número es igual a 500 y 95% de intervalo de formación: (350, 900). Esto significa que, lo más probable (con una probabilidad del 95%), al menos 350 y no más de 900 personas se dirigirá a la clínica durante el año.

Designacion. La reducción se usa con mucha frecuencia: DI 95% (CI 95%) es un intervalo de confianza con un nivel de confianza del 95%.

Exactitud, significado estadístico (P - Nivel)

Definición. Significancia estadística El resultado es una medida de confianza en su "verdad".

Cualquier estudio se basa en solo parte de los objetos. El estudio de la efectividad del fármaco se lleva a cabo sobre la base de no todos los pacientes en el planeta en general, sino que solo un determinado grupo de pacientes (para llevar a cabo el análisis basado en todos los pacientes es simplemente imposible).

Supongamos que, como resultado del análisis, se realizó cierta conclusión (por ejemplo, el uso de un arimidex como terapia adecuada es 2 veces más eficiente que el medicamento de tamoxifeno).

La pregunta que debe solicitar: "¿Cuánto puede confiar en este resultado?".

Imagina que realizamos un estudio basado en solo dos pacientes. Por supuesto, en este caso, es necesario tratar los resultados con preocupación. Si se examinó un gran número de pacientes (significado numérico " gran número"Depende de la situación), entonces ya es posible confiar en las conclusiones.

Entonces, el grado de confianza y se determina por el valor del nivel P (valor P).

El nivel de P más alto corresponde a más nivel bajo Confíe en los resultados obtenidos al analizar la muestra. Por ejemplo, el nivel P igual a 0.05 (5%) indica que la conclusión realizada en el análisis de un determinado grupo es solo una característica aleatoria de estos objetos con una probabilidad de solo el 5%.

En otras palabras, con una probabilidad muy alta (95%), la salida se puede extender a todos los objetos.

En muchos estudios, el 5% se considera un valor aceptable del nivel P. Esto significa que, por ejemplo, P \u003d 0.01, es posible confiar en los resultados, y si P \u003d 0.06, es imposible.

Estudio

Estudio prospectivo - Este es un estudio en el que las muestras se asignan sobre la base del factor de origen, y se analiza algún factor resultante en las muestras.

Estudio retrospectivo - Este es un estudio en el que se asignan muestras sobre la base del factor resultante, y se analiza algún factor inicial en muestras.

Ejemplo. El factor de origen es una mujer embarazada menor / mayor de 20 años. El factor resultante: el niño es más fácil / más pesado que 2,5 kg. Analizamos si el peso del niño depende de la edad de la madre.

Si reclutamos 2 muestras, en una madre menor de 20 años, en otro, en otro, y luego analizamos la masa de niños en cada grupo, entonces este es un estudio prospectivo.

Si escribimos 2 muestras, en una madre que dio a luz a los niños más fáciles de 2.5 kg, a la otra, más pesada, y luego analizar la edad de las madres en cada grupo, entonces este estudio retrospectivo (naturalmente, un estudio de este tipo puede llevarse a cabo. Solo cuando se completa la experiencia, aquellos. Todos los niños nacieron).

éxodo

Definición. Un fenómeno clínicamente significativo, un indicador de laboratorio o un signo que sirve como objeto de interés del investigador. Al realizar ensayos clínicos, los resultados sirven como criterios para evaluar la efectividad del impacto terapéutico o preventivo.

Epidemiología clínica

Definición. La ciencia, que permite predecir uno u otro resultado para cada paciente específico sobre la base del estudio flujo clínico Enfermedades en casos similares usando estrictos. metodos cientificos Estudiar a los pacientes para garantizar la exactitud de los pronósticos.

Grupo

Definición. Un grupo de participantes de la investigación unidos por cualquier signo general En el momento de su formación y estudiado durante un largo período de tiempo.

Control

Control histórico

Definición. Grupo de control formado y examinado durante el período anterior a la investigación.

Control paralelo

Definición. Grupo de control formado simultáneamente con la formación del grupo principal.

Correlación

Definición. Conexión estadística de dos signos (cuantitativo u ordinal) que muestra que mayor valor Una característica en una determinada parte de los casos corresponde a más, en el caso de una correlación positiva (recta), el valor de otra característica o menos valor, en el caso de una correlación negativa (inversa).

Ejemplo. Se detectó una correlación significativa entre el nivel de las plaquetas y los leucocitos en la sangre del paciente. El coeficiente de correlación es de 0.76.

Coeficiente de riesgo (CR)

Definición. El coeficiente de riesgo (relación de peligro) es la proporción de la probabilidad de que ocurra algunos ("malos") eventos para el primer grupo de objetos a la probabilidad de inicio del mismo evento para el segundo grupo de objetos.

Ejemplo. Si la probabilidad de la aparición del cáncer de pulmón en los no fumadores es del 20%, y los fumadores son del 100%, entonces la República Kirguisa será igual a una quinta. En este ejemplo, el primer grupo de objetos son personas para no fumadores, el segundo grupo: fumadores, y como un evento "malo", se considera la aparición de cáncer de pulmón.

Es obvio que:

1) Si KR \u003d 1, entonces la probabilidad de un evento en grupos de la misma

2) Si CR\u003e 1, el evento ocurre con más frecuencia con objetos del primer grupo que desde el segundo

3) Si el cr<1, то событие чаще происходит с объектами из второй группы, чем из первой

Metanálisis

Definición. DEanálisis tatístico, generalizando los resultados de varios estudios, explorando el mismo problema (generalmente la efectividad del tratamiento, la prevención, los diagnósticos). El estudio de la investigación proporciona una muestra más importante para analizar y un gran poder estadístico de la investigación unida. Se utiliza para mejorar la evidencia o la confianza en la conclusión de la efectividad del método estudiado.

Método Kaplan - Meyer (Multimitaciones de Kaplan - Meyer)

Este método fue inventado por las estadísticas E.l. Kaplan y Meyer Field.

El método se utiliza para calcular diferentes valores asociados con el tiempo de monitoreo del paciente. Ejemplos de tales valores:

    la probabilidad de recuperación por un año al usar el medicamento

    la posibilidad de recurrencia después de la operación durante tres años después de la cirugía.

    probabilidad acumulada de supervivencia durante cinco años entre pacientes con cáncer de próstata con amputación de órganos.

Aclaremos los beneficios de usar el método de Kaplan - Meyer.

El valor de los valores bajo el análisis "ordinario" (no usar el método de la moneda-Meyer) se calcula en función de la división del intervalo de tiempo en consideración durante los intervalos.

Por ejemplo, si exploramos la probabilidad de la muerte del paciente durante 5 años, entonces el intervalo de tiempo se puede dividir como 5 partes (menos de 1 año, 1-2 años, 2-3 años, 3-4 años, 4-5 años), así y 10 (durante medio año cada uno), u otro número de intervalos. Los resultados de diferentes partes resultarán diferentes.

La elección de la partición más adecuada no es una tarea fácil.

Las estimaciones de los valores de los valores obtenidos por el método Kaplan-Meyer no dependen de la división del tiempo de observación en los intervalos, y dependen de la vida útil de cada paciente individual.

Por lo tanto, el investigador es más fácil de llevar a cabo un análisis, y los resultados a menudo resultan ser los resultados cualitativos del análisis "normal".

La curva de Kaplan-Meier (Curva de Kaplan - Meier) es un gráfico de la curva de supervivencia obtenida por el método de Kaplan-Meier.

Modelo Cox

Este modelo fue inventado por Sir David Rocksby Coke (P.1924), famosos estadísticos ingleses, el autor de más de 300 artículos y libros.

El modelo COKE se utiliza en situaciones donde los valores bajo los investigadores se analizan durante las funciones del tiempo. Por ejemplo, la probabilidad de recurrencia a los años T (T \u003d 1.2, ...) puede depender del logaritmo del registro (T).

Una ventaja importante del método propuesto por COKE es la aplicabilidad de este método en un gran número de situaciones (el modelo no impone restricciones graves sobre la naturaleza o la forma de distribución de probabilidad).

Según el modelo COKE, es posible realizar un análisis (llamado análisis de coque (análisis de Cox)), cuyo resultado es el valor del gráfico de riesgo y confianza para el coeficiente de riesgo.

Métodos estadísticos no paramétricos.

Definición.La clase de métodos estadísticos que se utilizan principalmente para analizar datos cuantitativos que no forman una distribución normal, así como para analizar datos de calidad.

Ejemplo. Para identificar la importancia de las diferencias en la presión sistólica de los pacientes, dependiendo del tipo de tratamiento, utilizamos el criterio no paramétrico de Mann-Whitney.

Signo (variable)

Definición. H.acitereza del objeto de estudio (observación). Distinguir los signos de alta calidad y cuantitativos.

Aleatorización

Definición.El método de distribución aleatoria de los objetos de investigación en el grupo principal y de control utilizando medios especiales (tablas o contadores de números aleatorios, lanzando la moneda y otras formas de asignar accidentalmente el número del grupo a la observación incluida). Con la ayuda de la aleatorización, se minimizan las diferencias entre los grupos de acuerdo con las características conocidas y desconocidas que afectan potencialmente el éxodo en estudio.

Riesgo

Atributivo - Riesgo adicional de resultado adverso (por ejemplo, enfermedad) debido a la presencia de un determinado característico (factor de riesgo) en el objeto del estudio. Esto es parte del riesgo de desarrollar una enfermedad, que se asocia con este factor de riesgo, se explica por ellos y puede eliminarse si se elimina este factor de riesgo.

Riesgo relativo - la proporción del riesgo de emergencia de un estado adverso en un grupo al riesgo de este estado en otro grupo. Utilizado en estudios prospectivos y observacionales, cuando los grupos se forman de antemano, y aún no se ha producido el surgimiento del Estado estudiado.

Examen deslizante

Definición.El método de verificación de la estabilidad, confiabilidad, rendimiento (validez) del modelo estadístico al eliminar alternativamente las observaciones y la recalculación del modelo. Cuantos más modelos similares obtuvieron, el modelo más estable y confiable.

Evento

Definición.Resultado clínico observado en el estudio, por ejemplo, la aparición de complicaciones, recaída, el inicio de la recuperación, la muerte.

Estratificación

Definición. METRO.esta formación de muestra, en la que el conjunto de todos los participantes correspondientes a los criterios de inclusión en el estudio se divide primero en grupos (estratos) sobre la base de una o más características (generalmente género, edad), que afectan potencialmente al resultado estudiado, y luego De cada uno de estos grupos (Stratus) sostiene de forma independiente un conjunto de participantes en el grupo experimental y de control. Esto le permite al investigador observar el equilibrio de características importantes entre los grupos experimentales y de control.

Mesa conmark

Definición.La tabla de frecuencias absolutas (cantidad) de las observaciones, cuyas columnas corresponden a los valores de la misma característica, y las cadenas son los valores de otra característica (en el caso de una tabla de connotación bidimensional). Los valores de frecuencia absoluta se ubican en las células en la intersección de filas y columnas.

Damos un ejemplo de una tabla de conjugación. La operación en el aneurisma se realizó a 194 pacientes. Es conocido por la gravedad del edema en pacientes antes de la cirugía.

Edema \\ exodus

no edema 20 6 26
hinchazón moderada 27 15 42
edema expresado 8 21 29
m j. 55 42 194

Por lo tanto, de 26 pacientes que no tienen edema, después de la operación sobrevivieron a 20 pacientes, murieron, 6 pacientes. De 42 pacientes que tienen hinchazón moderada sobrevivieron a 27 pacientes, murieron - 15, etc.

Criterio de chi-cuadrado para tablas de conignos

Para determinar la importancia (confiabilidad) de las diferencias en la misma característica dependiendo del otro (por ejemplo, el resultado de la operación, dependiendo de la gravedad del edema), se utiliza un criterio de CHI cuadrado para las tablas de conjugación:


Oportunidad

Deje que la probabilidad de un cierto evento sea igual a p. Luego, la probabilidad de que el evento no ocurra igual a 1-P.

Por ejemplo, si la probabilidad de que el paciente permanezca viva después de cinco años igual a 0.8 (80%), entonces la probabilidad de que muera 0.2 durante este intervalo de tiempo (20%).

Definición. La posibilidad es la proporción de la probabilidad de que ocurran eventos a la probabilidad de que el evento no suceda.

Ejemplo. En nuestro ejemplo (sobre el paciente), la posibilidad es de 4, como 0.8 / 0.2 \u003d 4

Por lo tanto, la probabilidad de recuperación es 4 veces la probabilidad de muerte.

Interpretación del valor del valor.

1) Si la posibilidad de que 1, entonces la probabilidad de un evento es igual a la probabilidad de que el evento no ocurra;

2) Si la posibilidad de\u003e 1, entonces la probabilidad de ocurrencia del evento es mayor que la probabilidad de que el evento no suceda;

3) Si la posibilidad<1, то вероятность наступления события меньше вероятности того, что событие не произойдёт.

Oportunidad de actitud

Definición. La proporción de posibilidades de probabilidad (proporción de probabilidades) es la proporción de posibilidades para el primer grupo de objetos a la actitud de las posibilidades para el segundo grupo de objetos.

Ejemplo. Supongamos que algunos tratamientos son los hombres y las mujeres pasan.

La probabilidad de que los enfermos masculinos permanezcan vivos cinco años después, igual a 0.6 (60%); La probabilidad de que muera 0.4 (40%) durante este intervalo de tiempo).

Las probabilidades similares para las mujeres son iguales a 0.8 y 0.2.

La proporción de la posibilidad en este ejemplo es igual.

Interpretación del valor del valor.

1) Si la proporción de posibilidades \u003d 1, la posibilidad de que el primer grupo sea igual a la posibilidad de que el segundo grupo

2) Si la proporción de posibilidades\u003e 1, entonces la posibilidad de que el primer grupo sea mayor que la posibilidad de que el segundo grupo

3) Si la proporción de posibilidades.<1, то шанс для первой группы меньше шанса для второй группы

Tarea 3. Cinco preescolares se presentan una prueba. El tiempo para resolver cada tarea se registra. ¿Se encontrarán diferencias estadísticamente significativas entre el tiempo para resolver las tres primeras tareas de la prueba?

Número de prueba

Material de referencia

Esta tarea se basa en la teoría del análisis de dispersión. En el caso general, el problema del análisis de dispersión es identificar aquellos factores que tienen un impacto significativo en el resultado del experimento. El análisis de dispersión se puede utilizar para comparar muestras de tamaño mediano si el número de muestras es más de dos. Para este propósito sirve un análisis de dispersión de un solo factor.

Para resolver las tareas asignadas a los siguientes. Si la dispersión de los valores obtenidos del parámetro de optimización en el caso de la influencia de los factores difiere de las dispersiones de los resultados en ausencia de la influencia de los factores, entonces tal factor es reconocido como significativo.

Como se puede ver en la redacción de la tarea, los métodos de prueba de hipótesis estadísticos se utilizan aquí, a saber, la tarea de verificar dos dispersiones empíricas. En consecuencia, el análisis de dispersión se basa en verificar las dispersiones por el criterio de Fisher. En esta tarea, es necesario verificar si las diferencias entre la hora de resolver las primeras tres tareas de la prueba son necesarias cada uno de los seis preescolares.

Cero (principal) se llama la hipótesis h o. Essence E se asume que la diferencia entre los parámetros comparados es cero (por lo tanto, y el nombre de la hipótesis es cero) y que las diferencias observadas son aleatorias.

La competencia (alternativa) se llama hipótesis H 1, que contradice cero.

Decisión:

El método de análisis de dispersión a nivel de significación α \u003d 0.05 Verifique la hipótesis cero (H o) sobre la existencia de diferencias estadísticamente significativas entre el tiempo de resolver las tres primeras tareas de la prueba en los seis preescolares.

Considere la tabla de la condición de tarea en la que encontramos la solución promedio para cada una de las tres tareas de prueba

Número de prueba

Niveles de factor

Tiempo para resolver la primera tarea de la prueba (en la sec.).

El tiempo para resolver la segunda tarea de prueba (en la sec.).

El tiempo de resolver la tercera tarea de la prueba (en la sec.).

Promedio de grupo

Encontramos un promedio común:

Para tener en cuenta la importancia de las diferencias temporales entre cada prueba, la dispersión selectiva general se divide en dos partes, la primera de las cuales se llama factor, y el segundo es residual

Calcule la cantidad total de los cuadrados de desviaciones Opción del promedio total por la fórmula

o donde P es el número de mediciones de las soluciones de tiempo de las tareas de prueba, q - el número de sujetos. Para hacer esto, haga una tabla de cuadrados.

Número de prueba

Niveles de factor

Tiempo para resolver la primera tarea de la prueba (en la sec.).

El tiempo para resolver la segunda tarea de prueba (en la sec.).

El tiempo de resolver la tercera tarea de la prueba (en la sec.).

Las características principales de cualquier dependencia entre las variables.

Puede notar las dos propiedades más simples de la relación entre las variables: (a) el valor de la dependencia y (b) Fiabilidad de la adicción.

- Valor . La cantidad de dependencia es más fácil de entender y medir que la confiabilidad. Por ejemplo, si algún hombre en la muestra tuvo el valor del número de leucocitos (WCC) más alto que cualquier mujer, puede decir que la relación entre dos variables (piso y WCC) es muy alta. En otras palabras, podría predecir los valores de una variable por los diferentes valores.

- Fiabilidad ("Verdad"). La confiabilidad de la interdependencia es un concepto menos visual que la magnitud de la dependencia, pero extremadamente importante. La confiabilidad de la dependencia está directamente relacionada con la representatividad de una cierta muestra, basada en las conclusiones. En otras palabras, la confiabilidad indica cómo es probable que la dependencia se descubra nuevamente (en otras palabras, se confirma) en estas otras muestras extraídas de la misma población.

Debe recordarse que el objetivo final es casi nunca estudiar esta muestra particular de valores; La muestra es de interés solo inspirada porque da información sobre toda la población. Si el estudio satisface algunos criterios especiales, la confiabilidad de las dependencias encontradas entre las variables de la muestra se puede cuantificar y enviar utilizando una medida estadística estándar.

La magnitud de la dependencia y confiabilidad representan dos características diferentes de las dependencias entre las variables. Sin embargo, es imposible decir que son completamente independientes. Cuanto mayor sea la magnitud de la dependencia (comunicación) entre las variables en la muestra del volumen habitual, más es confiable (consulte la siguiente sección).

La importancia estadística del resultado (P-Nivel) es una medida estimada de confianza en su "verdad" (en el sentido del "representante de muestreo"). Dominar con más frecuencia técnicamente, el nivel de P es un indicador en la disminución de la dependencia de la confiabilidad del resultado. Un nivel P más alto corresponde a un nivel inferior de confianza en la dependencia que se encuentra en la selección entre las variables. Es que el nivel P representa la probabilidad de un error asociado con la difusión del resultado observado en toda la población.

Por ejemplo, p-LEVEL \u003d 0.05 (I.E. 1/20) muestra que hay un 5% de probabilidad de que la conexión que se encuentra en la muestra entre las variables es solo una característica aleatoria de esta muestra. En muchos estudios, el nivel P 0.05 se considera como el nivel "frontera aceptable" del error.

No hay manera de evitar la arbitrariedad al tomar una decisión sobre qué nivel de importancia debería considerarse realmente "significativo". La elección de un cierto nivel de importancia, sobre el cual los resultados son rechazados como falsos, es bastante arbitrario.



En la práctica, la solución final generalmente depende de si el resultado se predijo a priori (es decir, antes de experimentar) o descubrió a un destinatario como resultado de muchos análisis y comparaciones realizadas con una variedad de datos, así como en la tradición disponible en la tradición. Esta área de investigación.

Por lo general, en muchas áreas, el resultado, el resultado, p .05 es un límite aceptable de significación estadística, pero debe recordarse que este nivel aún incluye una probabilidad bastante mayor de error (5%).

Los resultados que son significativos a nivel p .01 generalmente se consideran estadísticamente significativos, y los resultados con el nivel p .005 o p. 001 Qué tan significativo. Sin embargo, debe entenderse que esta clasificación de niveles de importancia es bastante arbitraria y es solo un acuerdo informal adoptado sobre la base de la experiencia práctica. en un área de investigación..

Está claro que cuanto mayor sea el número de análisis, se llevará a cabo con un conjunto de datos recopilados, mayor será el número de resultados relevantes (en el nivel seleccionado), se descubrirá puramente por casualidad.

Algunos métodos estadísticos que incluyen muchas comparaciones, y por lo que tienen una posibilidad significativa para repetir este tipo de error, producir un ajuste o enmienda especial para el número total de comparaciones. Sin embargo, muchos métodos estadísticos (especialmente los métodos simples de exploración de datos) no ofrecen ninguna manera de resolver este problema.

Si la conexión entre la variable "objetivamente" es débil, entonces no hay otra manera de verificar esta dependencia, además de explorar una muestra de un gran volumen. Incluso si la muestra es absolutamente representativa, el efecto no será estadísticamente significativo si la muestra es pequeña. De manera similar, si la dependencia es "objetivamente" muy fuerte, entonces se puede detectar con un alto grado de importancia, incluso en una muestra muy pequeña.

Cuanto más débil sea la relación entre las variables, mayor será la muestra para detectarla significativamente.

Muchos de diferentes desarrollados. medidas de interconexión Entre las variables. La elección de una cierta medida en un estudio particular depende del número de variables utilizadas por las escalas de medición, la naturaleza de las dependencias, etc.

Sin embargo, la mayoría de estas medidas son subordinadas al principio general: están tratando de estimar la dependencia observada, comparándola con la "dependencia máxima concebible" entre las variables en consideración. Hablando técnicamente, la forma habitual de cumplir con tales estimaciones es ver cómo los valores variables varían y luego calculan qué parte de toda la variación disponible puede explicarse por la presencia de las variaciones "generales" ("juntas") de dos (o más ) Variables.

La importancia depende principalmente del tamaño de la muestra. Como ya se explicó, en muestras muy grandes, incluso las dependencias muy débiles entre las variables serán significativas, mientras que en muestras pequeñas, incluso las dependencias muy fuertes no son confiables.

Por lo tanto, para determinar el nivel de significación estadística, una función necesita una función que represente la relación entre la "magnitud" y la "importancia" de la relación entre las variables para cada tamaño de muestra.

Dicha función indicaría exactamente "qué probabilidades de obtener la dependencia de este valor (o más) en la muestra de este volumen, bajo el supuesto de que no existe tal dependencia en la población". En otras palabras, esta función daría el nivel de importancia.
(Nivel P), y, por lo tanto, la probabilidad de rechazar erróneamente el supuesto sobre la ausencia de esta dependencia en la población.

Esta hipótesis "alternativa" (que consiste en el hecho de que no hay dependencia en la población) generalmente se llama cero hipótesis.

Sería perfecto si una función que calcula la probabilidad de un error fue lineal y tenía solo pendientes diferentes para diferentes volúmenes de muestreo. Desafortunadamente, esta característica es significativamente más compleja y no siempre es exactamente la misma. Sin embargo, en la mayoría de los casos, se conoce su forma, y \u200b\u200bse puede usar para determinar los niveles de importancia en el estudio de las muestras de muestra. La mayoría de estas funciones están asociadas con la clase de distribución llamada normal .

Considere un ejemplo típico de la aplicación de métodos estadísticos en medicina. Los creadores de la droga sugieren que aumenta la diuresis proporcional a la dosis adoptada. Para verificar este supuesto, se les prescribe a cinco voluntarios de diferentes dosis de la droga.

De acuerdo con los resultados de las observaciones, se construye una gráfica del circuito DIUS de la dosis (Fig. 1.2a). La dependencia es visible a simple vista. Los investigadores se felicitan entre sí con el descubrimiento, y el mundo está con un nuevo diurético.

De hecho, los datos permiten de manera confiable afirmar que la dependencia del circuito DIUS de la dosis se observó en estos cinco voluntarios. Que esta dependencia se manifestará en todas las personas que tomarán la droga, nada más que
zY.

de

. Es imposible decir que es seguro, de lo contrario, ¿por qué poner los experimentos?

Pero la droga fue a la venta. Cada vez más personas lo toman con la esperanza de aumentar sus diuresis. Y ¿qué vemos? Vemos la Figura 1.2B, que indica la ausencia de cualquier relación entre la dosis del fármaco y la diuresis. Los círculos negros marcaron los datos de la investigación inicial. Las estadísticas tienen métodos que nos permiten estimar la probabilidad de obtener un "no provisional", además, que confunde la muestra. Resulta en ausencia de comunicación entre el diureoma y la dosis del fármaco, la "dependencia" resultante se observará en aproximadamente 5 de 1000 experimentos. Entonces, en este caso, los investigadores simplemente no tienen suerte. Si hubieran aplicado incluso los métodos estadísticos más avanzados, todavía no los salvaría de un error.

Este ficticio, pero no en todo lejos de la realidad, un ejemplo, llevamos a no señalar
estadísticas. Habla de otro, sobre la naturaleza probabilística de sus conclusiones. Como resultado de la aplicación del método estadístico, no obtenemos la verdad en la última instancia, sino solo una estimación de la probabilidad de uno u otro supuesto. Además, cada método estadístico se basa en su propio modelo matemático y sus resultados son correctos, ya que este modelo corresponde a la realidad.

Incluso sobre el tema de la fiabilidad y la importancia estadística:

  1. Diferencias estadísticamente significativas en la calidad de vida.
  2. Agregado estadístico. Cuentas. El concepto de estudios sólidos y selectivos. Requisitos para el agregado estadístico y el uso de documentos contables.
  3. ENSAYO. Investigación de la confiabilidad del testimonio de Testimonier para medir la presión intraocular a través de los Eyalidios2018, 2018

El estudio generalmente comienza con cierta suposición que requiere la verificación con los hechos atractivos. Esta suposición es hipótesis, está formulada en términos de comunicación de fenómenos o propiedades en algún consejo de objetos.

Para verificar tales supuestos sobre los hechos, es necesario medir las propiedades correspondientes de sus portadores. Pero es imposible medir la ansiedad en todas las mujeres y los hombres, ya que es imposible medir la agresividad de todos los adolescentes. Por lo tanto, al realizar investigaciones, se limita solo a un grupo relativamente pequeño de representantes de los conjuntos relevantes de personas.

Agregado general- Estos son todos los muchos objetos con respecto a los cuales se formula la hipótesis de la investigación.

Por ejemplo, todos los hombres; o todas las mujeres; O todos los habitantes de cualquier ciudad. Los agregados generales, en relación con la cual el investigador va a sacar conclusiones basadas en los resultados del estudio, puede estar en número y más modesto, por ejemplo, todos los estudiantes de primer grado de esta escuela.

Por lo tanto, el agregado general es aunque no infinito en número, sino, como regla general, las muchas pruebas potenciales inaccesibles para un estudio sólido.

Muestra o agregado selectivo- Este es un grupo limitado de instalaciones (en psicología, pruebas, encuestados), especialmente seleccionados de la población general para estudiar sus propiedades. En consecuencia, se llama el estudio sobre la selección de las propiedades de la población general. investigación selectiva. Casi todos los estudios psicológicos son selectivos, y sus conclusiones se aplican a los agregados generales.

Por lo tanto, después de que se formula la hipótesis y se identifican los agregados generales correspondientes, se determina el problema de la organización de muestreo. La muestra debe ser tal que la generalización de las conclusiones del estudio de la muestra se fundamentó, una generalización, la distribución de ellos en la población general. Los principales criterios para la revisión de las conclusiones de investigación.esta es la representatividad del muestreo y los resultados de la precisión estadística (empírica).

Muestra representativa- En otras palabras, su representatividad es la capacidad de la muestra para representar a los fenómenos estudiados es suficiente medio-no, desde el punto de vista de su variabilidad en la población general.

Por supuesto, una imagen completa del fenómeno estudiado, en toda su zona de rango y matices de variabilidad, solo puede dar una población general. Por lo tanto, la representatividad siempre se limita a la medida en que la muestra es limitada. Y es precisamente la representatividad de la muestra que es la envoltura principal al determinar los límites de la generalización de las conclusiones de investigación. Sin embargo, hay técnicas que le permiten obtener una representatividad suficiente de la muestra suficiente para el investigador es (estas técnicas están en marcha para la "psicología experimental" del curso).


La primera y la recepción primaria es una simple selección aleatoria (aleatorizada). Asume que proporciona tales condiciones para que cada miembro de la población general sea igual con otras posibilidades de entrar en la muestra. La selección de vela proporciona la posibilidad de ingresar a la muestra de varios representantes de la población general. Al mismo tiempo, se toman medidas especiales, excluyendo la aparición de cualquier patrón en la selección. Y esto le permite esperar que, en última instancia, en la muestra de la propiedad de Izu-Teo se presentará si no en todo, en el máximo máximo posible su variedad.

La segunda forma de proporcionar representatividad es una selección aleatoria estratificada, o una selección de acuerdo con las propiedades de la población general. Implica una definición preliminar de aquellas cualidades que pueden afectar la variabilidad de la propiedad que se está estudiando (puede ser el piso, el nivel de ordeño o educación, etc.). Se determina la relación porcentual del número de grupos difieren en estas cualidades de los grupos (estratos) en la población general y se proporciona la proporción de porcentaje idéntico de los grupos correspondientes en la muestra. A continuación, en cada subgrupo de muestreo, los sujetos se seleccionan en el principio de la simple selección aleatoria.

Precisión estadísticao importancia estadística, los resultados del estudio se determinan utilizando los métodos de existencia estadística.

¿Estamos asegurados de cometer errores al tomar decisiones, con ciertas conclusiones de los resultados del estudio? Por supuesto que no. Después de todo, nuestras decisiones confían en los resultados del estudio del muestreo, así como al nivel de nuestro conocimiento psicológico. Totalmente no estamos asegurados contra los errores. En las estadísticas, tales errores se consideran permisibles si ocurren no más que en un caso de 1000 (la probabilidad de error α \u003d 0,001 o el valor de la probabilidad de confianza de la salida adecuada P \u003d 0.9999); En un caso, de 100 (la probabilidad de error α \u003d 0.01 o el valor de la probabilidad de confianza de la salida adecuada P \u003d 0,99) o en cinco casos de 100 (la probabilidad de error α \u003d 0.05 o la probabilidad de confianza de la correcta retiro P \u003d 0.95). Es en los últimos dos niveles y es habitual tomar decisiones en psicología.

A veces, hablando de confiabilidad estadística, use el concepto de "nivel de significación" (denotado como α). Los valores numéricos de P y α se complementan mutuamente a 1,000, un conjunto completo de eventos: hicimos la conclusión correcta, o nos equivocamos. Estos niveles no se calculan, se especifican. El nivel de importancia puede entenderse como un tipo de línea "roja", cuya intersección permitirá hablar sobre este evento como no al azar. En cada informe o publicación científica competente, las conclusiones deben ir acompañadas de una indicación de los valores P o α a los que se hicieron conclusiones.

Los métodos de producción estadística se consideran en detalle en el curso de "estadísticas matemáticas". Ahora solo observamos que imponen ciertos números para los números, o muestreo.

Desafortunadamente, no existe recomendaciones estrictas sobre la definición preliminar del muestreo requerido. Además, la respuesta a la pregunta de la no acredita y el número suficiente de su número generalmente está recibiendo demasiado tarde, solo después de analizar los datos de la opción ya encuestada. Sin embargo, puede formular las recomendaciones más generales:

1. El mayor tamaño de la muestra es necesario al desarrollar métodos de diagnóstico, de 200 a 1000-2500 personas.

2. Si necesita comparar 2 muestras, su número total debe ser de al menos 50 personas; El número de muestras comparadas debe ser aproximadamente la misma.

3. Si se estudia la relación entre cualquier propiedad, el volumen de la muestra debe ser al menos 30-35 personas.

4. Cuanto más grande variabilidadlas propiedades estudiadas, cuanto mayor sea el tamaño de la muestra. Por lo tanto, la variabilidad puede reducirse aumentando la homogeneidad de la muestra, por ejemplo, en el piso, la edad, etc., al mismo tiempo, naturalmente, se reducen las posibilidades de generación de conclusiones.

Muestras dependientes e independientes.La situación del estudio es común cuando se estudia la propiedad del investigador en dos o más muestras con el propósito de su comparación adicional. Estas muestras pueden estar en diferentes proporciones, dependiendo del procedimiento de su organización. Muestras independientes se caracteriza por el hecho de que la probabilidad de la selección de cualquier objeto de una muestra no depende de la selección de ninguno de los sujetos de otra muestra. De lo contrario muestras dependientesse caracteriza por el hecho de que cada prueba de una muestra se realiza de acuerdo con un criterio específico sujeto de otra muestra.

En general, las muestras dependientes sugieren la selección de pares de uso en muestras comparadas, y las muestras independientes son una selección independiente de las pruebas.

Cabe señalar que los casos de muestras "parcialmente dependientes" (o "parcialmente independientes") son inaceptables: esto viola impredeciblemente su representatividad.

En conclusión, observamos que se pueden distinguir dos paradigmas de investigación psicológica.

Así llamado Metodología Rtiene la intención de estudiar la variabilidad de algunas propiedades (psicológicas) influenciadas por cierta exposición, factor u otra propiedad. La muestra es el símbolo de los sujetos.

Otro enfoque Q-Metodología,implica el estudio de la variabilidad del sujeto (single) bajo la influencia de diversos incentivos (condiciones, situaciones, etc.). Corresponde a la situación cuando la muestra es un montón de incentivos.