Bienvenido al Instituto de Investigación y Educación Digital Stata Class Notes Contando de n a N Introducción Stata tiene dos variables integradas llamadas n y N. N es la notación Stata para el número de observación actual. N es 1 en la primera observación, 2 en la segunda, 3 en la tercera, y así sucesivamente. N es la notación Stata para el número total de observaciones. Veamos cómo funcionan N y N. Como se puede ver, el ID de la variable contiene el número de observación que va de 1 a 7 y nt es el número total de observaciones, que es 7. Contando con usando n y N junto con el comando by pueden producir algunos resultados muy útiles. Por supuesto, para usar el comando by debemos primero ordenar nuestros datos en la variable by. Ahora n1 es el número de observación dentro de cada grupo y n2 es el número total de observaciones para cada grupo. Para enumerar la puntuación más baja de cada grupo, utilice lo siguiente: Para enumerar la puntuación más alta de cada grupo, utilice lo siguiente: Otro uso de n Utiliza n para averiguar si hay números de identificación duplicados en los siguientes datos: Las observaciones 6 y 7 tienen los mismos números de identificación y valores de puntuación diferentes. Búsqueda de duplicados Ahora utilice N para encontrar observaciones duplicadas. En este ejemplo clasificamos las observaciones por todas las variables. Luego usamos toda la variable en la sentencia by y establecemos un conjunto n igual al número total de observaciones que son idénticas. Finalmente, enumeramos las observaciones para las cuales N es mayor que 1, identificando así las observaciones duplicadas. Si tiene muchas variables en el conjunto de datos, puede tardar mucho tiempo en escribirlas todas dos veces. Podemos hacer uso del comodín para indicar que queremos utilizar todas las variables. Además en las últimas versiones de Stata podemos combinar ordenar y por en una sola declaración. A continuación se muestra una versión simplificada del código que producirá los mismos resultados que anteriormente. El contenido de este sitio web no debe ser interpretado como un endoso de cualquier sitio web, libro o producto de software en particular por la Universidad de California. 12 de octubre de 2016 Camp Yawgoog celebró recientemente su 100 aniversario con más de 350 Scouters y familiares disfrutando Un hermoso día bajo un cielo azul. El día estaba lleno de actividades a partir de las 9 de la mañana con la Dave Anderson 5K Race alrededor de Camp Yawgoog. Paseos en autobús, encuentros de natación, centros de programas y ventas de parches centrados en todo el hellip 12 de octubre de 2016 Su siempre genial estar en Yawgoog, no es Para oler los pinos blancos, sentir la brisa viniendo del estanque, para escuchar un familiar Aplaudir en el salón comedor, despierta algo en ti, alcanza en tu memoria y se apodera de tu yo de la infancia. Es como volver a casa. En la mañana del sábado 30 de julio, más de 80 corredores se reunieron en la Corte Donald Norte para prepararse para la carrera. En la asistencia tuvimos Scouts, Scouters y corredores de todo el estado. La ruta de la carrera comenzó en el estacionamiento usando el nuevo camino de ladrillo como el punto de partida, los corredores hizo hellip 12 de octubre 2016 Yawgoog Alumni, El lienzo está hacia abajo, los pasillos del comedor están cerrados, Abajo para winter8230 Yawgoogs la estación del aniversario del 100o es completa y era un éxito fenomenal. El fin de semana comenzó el viernes con una recepción en Chelos en el Waterfront hellip 12 de octubre de 2016 24 de marzo de 1933 al 11 de abril de 2016 8220Build me Scout, O Lord, que será lo suficientemente fuerte Saber cuándo es débil y lo suficientemente valiente como para enfrentarse a sí mismo cuando tiene miedo, que será orgulloso e inflexible en honesta derrota, y humilde y amable en victoria8230 Construyeme un Scout cuyo hellip 12 de octubre de 2016 Con hermanas creciendo y ahora hijas Luke Landherr, un miembro del personal de Yawgoog de 1999-2003 y luego en 2005, cuando él era el director asistente del campamento recuerda el campo no sólo como un lugar donde podría estar con otros chicos, sino un lugar donde podría estar en el Pasado, presente y futuro, hellip October 12, 2016 Hay gente que intenta varias carreras a través del curso de sus vidas. Ex Boy Scouts of America Director Adjunto del Scout y Director de Operaciones Gary Butler siempre estaba seguro de lo que le interesaba. Desde muy joven, él sabía que quería estar en la industria sin fines de lucro y tener una carrera en el Movimiento Scout. Hellip 12 de octubre de 2016 A medida que paso por la vida, mi aprecio por mi experiencia Scouting crece. Era difícil imaginarme como pre-adolescente y adolescente que las habilidades que estaba ganando entonces me ayudarían años más tarde. Como muchos otros chicos, comencé mi experiencia de Scouting con determinación enfocada. FERRANTE, Judy (West Warwick, RI) 1983 La mejor celebración de fin de semana y la Reunión de los ex-miembros NUNCA El fin de semana entero fue un éxito no seguro qué acontecimiento me gustó best8230 bien, la dedicación de El camino conmemorativo del ladrillo permanecerá ciertamente conmigo para el resto de mi vida y más allá ahora que mi nombre es tallado en hellipThis poste fue escrito junto con Yulia Marchenko, director ejecutivo de la estadística, StataCorp. La teoría de respuesta a los ítems (IRT) se utiliza para modelar la relación entre las habilidades latentes de un grupo de sujetos y los ítems de examen utilizados para medir sus habilidades. Stata 14 introdujo una serie de comandos para la adaptación de modelos IRT usando máxima verosimilitud, por ejemplo, el blog Spotlight on irt de Rafal Raciborski y el IRT Item Response Theory manual para más detalles. En este post, demostramos cómo ajustar Bayesian binario IRT modelos utilizando la opción redefinir () introducido para el comando bayesmh en Stata 14.1. También utilizamos la opción de verosimilitud dbernoulli () disponible a partir de la actualización el 03 de marzo de 2016 para la distribución de Bernoulli. Si no está familiarizado con los conceptos y la jerga de las estadísticas bayesianas, puede que desee ver los videos introductorios en el canal Stata Youtube antes de continuar. Utilizamos la versión abreviada de los datos matemáticos y científicos de DeBoeck y Wilson (2004), masc1. El conjunto de datos incluye 800 respuestas de estudiantes a 9 preguntas de prueba destinadas a medir la habilidad matemática. La suite irt se adapta a modelos IRT usando datos en la forma amplia 8211 una observación por sujeto con ítems registrados en variables separadas. Para ajustar modelos IRT usando bayesmh. Necesitamos datos en la forma larga, donde los ítems se registran como observaciones múltiples por sujeto. Por lo tanto, remodelar el conjunto de datos en una forma larga: tenemos una variable de respuesta binaria única, y. Y dos variables de índice, item e id. Que identifican los temas y temas, respectivamente. Esto nos permite formular nuestros modelos IRT como modelos multinivel. Los siguientes comandos cargan y preparan el conjunto de datos. Para asegurar que incluimos todos los niveles de item e id en nuestros modelos, utilizamos fvset base none para mantener las categorías de base. En lo que sigue, presentamos ocho modelos binarios Bayesianos IRT que aumentan en complejidad y poder explicativo. Realizamos una comparación de modelos bayesianos para obtener una idea de cuál sería el modelo más apropiado para los datos disponibles. Para modelos de gran dimensión como los modelos IRT, puede verse diferencias en los resultados de estimación entre diferentes plataformas o diferentes sabores de Stata debido a la naturaleza del muestreo Monte Carlo (MCMC) de cadena de Markov y precisión numérica finita. Estas diferencias no son una fuente de preocupación que estarán dentro del rango de la variabilidad MCMC y conducirá a conclusiones inferenciales similares. Las diferencias disminuirán a medida que aumenta el tamaño de la muestra MCMC. Los resultados en esta publicación se obtienen de Stata / SE en la plataforma Linux de 64 bits utilizando el tamaño de muestra predeterminado de 10.000 MCMC. Deje que los ítems sean indexados por (i1, puntos, 9) y los sujetos por (j1, puntos, 800). Sea (thetaj) la habilidad matemática latente del sujeto (j), y sea (Y) la respuesta del sujeto (j) al ítem (i). En el modelo de un parámetro logístico (1PL), la probabilidad de obtener una respuesta correcta se modela como una función inversa-logit de los parámetros de localización (bi), también llamada dificultad de elemento, y un parámetro de pendiente común (a), también llamado elemento Discriminación: Normalmente, se supone que las habilidades se distribuyen normalmente: thetaj sim (0,1) En un marco multinivel, los (thetaj) 8217s representan efectos aleatorios. En un marco bayesiano, utilizamos el término efectos aleatorios8221 para referirse a los parámetros correspondientes a los niveles de agrupación de variables que identifican la jerarquía de los datos. Una formulación bayesiana del modelo 1PL también requiere una especificación previa para los parámetros del modelo (a) y (bi). Se supone que el parámetro de discriminación (a) es positivo y se suele modelar en la escala logarítmica. Debido a que no tenemos conocimiento previo sobre la discriminación y los parámetros de dificultad, asumimos que las distribuciones anteriores de (ln (a)) y (bi) tienen soporte en toda la línea real, son simétricas y están centradas en 0. Una prioridad normal La distribución es, pues, una elección natural. Además suponemos que (ln (a)) y (bi) son cercanos a 0 y tienen una varianza previa de 1, que es una decisión enteramente subjetiva. Por lo tanto, asignar (ln (a)) y (bi) estándar normal distribuciones anteriores: Para especificar la función de verosimilitud del modelo 1PL en bayesmh. Utilizamos una especificación de ecuación no lineal para la variable de respuesta y. La especificación directa no lineal para este modelo es donde está el parámetro de discriminación (a), son las capacidades latentes (thetaj), y son las dificultades del artículo (bi). El modelo logit se utiliza para la probabilidad de éxito, (P (Y 1)). La especificación en la expresión no lineal anterior se ve como una expresión sustituible para combinaciones lineales de indicadores asociados con la variable id y parámetros (thetaj). Esta especificación puede ser computacionalmente prohibitiva con un gran número de sujetos. Una solución más eficiente es utilizar la opción redefinir () para incluir efectos aleatorios de sujeto (thetaj) en el modelo. El mismo argumento puede aplicarse a la especificación cuando hay muchos elementos. Por lo tanto, puede ser conveniente desde el punto de vista computacional tratar los (bi) parámetros como 8220 efectos aleatorios8221 en la especificación y usar la opción redefinir () para incluirlos en el modelo. Una especificación más eficiente es, por tanto, donde y en la especificación no lineal ahora representan los parámetros (thetaj) y (bi), respectivamente, sin utilizar expansiones en combinaciones lineales de variables de indicador. A continuación, mostramos la especificación bayesmh completa del modelo 1PL y el resumen de salida. En nuestros ejemplos, tratamos las capacidades como parámetros de molestias y las excluimos de los resultados finales. El parámetro del modelo de discriminación debe ser positivo y por lo tanto se inicializa con 1. Un período de quemado más largo, burnin (5000). Permite una adaptación más larga del muestreador MCMC, que es necesario dado el gran número de parámetros del modelo. Finalmente, los resultados de la estimación se almacenan para la comparación posterior del modelo. La eficiencia de muestreo es aceptable, aproximadamente 6 en promedio, sin indicación de problemas de convergencia. Aunque la inspección detallada de la convergencia de todos los parámetros está fuera del alcance de este post, recomendamos que lo haga utilizando, por ejemplo, el comando bayesgraph diagnostics. Aunque hemos utilizado información priors para los parámetros del modelo, los resultados de la estimación de nuestro modelo bayesiano no son tan diferentes de las estimaciones de máxima verosimilitud obtenida mediante el comando irt 1pl (ver ejemplo 1 en IRT irt 1pl). Por ejemplo, la estimación media posterior es de 0,86 con un error estándar de MCMC de 0,003, mientras que el valor de irt 1pl indica 0,85 con un error estándar de 0,05. La probabilidad de logaritmos marginales es reportada como ausente porque hemos excluido los parámetros de los resultados de la simulación y el estimador de Laplace-Metropolis de la probabilidad log-marginal no está disponible en tales casos. Este estimador requiere resultados de simulación para todos los parámetros del modelo para calcular la probabilidad log-marginal. El modelo de dos parámetros de la logística (2PL) extiende el modelo 1PL permitiendo la discriminación de elementos específicos. La probabilidad de respuesta correcta se modela ahora en función de los parámetros de pendiente específicos de cada ítem (ai): P (Y 1) frac La especificación anterior para (thetaj) permanece igual que en el modelo 1PL. Sin embargo, aplicaremos especificaciones previas más elaboradas para los (ai) 8217s y (bi) 8217s. Es una buena práctica utilizar especificaciones previas adecuadas sin sobrecargar la evidencia de los datos. El impacto de los priores se puede controlar mediante la introducción de hiperparámetros adicionales. Por ejemplo, Kim y Bolt (2007) propusieron el uso de un normal anterior para los parámetros de dificultad con media desconocida y varianza. Extendiendo este enfoque también a los parámetros de discriminación, aplicamos un modelo bayesiano jerárquico en el que los parámetros (ln (ai)) y (bi) tienen las siguientes especificaciones previas: ln (ai) sim (mua, sigmaa2) bi sim , Sigmab2) Los hiperparámetros medios, (mua) y (mub), y los hiperparámetros de varianza, (sigmaa2) y (sigmab2), requieren especificaciones previas informativas. Se supone que los medios están centrados en 0 con una variación de 0,1: mua, mub sim (0, 0,1) Para reducir la variabilidad de los parámetros (ln (ai)) y (bi), se aplica una gamma inversa anterior con La forma 10 y la escala 1 para los parámetros de varianza: Así, la media anterior de (sigmaa2) y (sigmab2) es aproximadamente 0,1. En la especificación bayesmh, los hiperparámetros (mua), (mub), (sigmaa2) y (sigmaa2) se denotan como. . . Y. respectivamente. Utilizamos la opción redefinir (discrim: i. item) para incluir en el modelo los parámetros de discriminación (ai), referidos en la especificación de verosimilitud. Respecto a la simulación MCMC, cambiamos algunas de las opciones por defecto. Los hiperparametros. . . Y se colocan en bloques separados para mejorar la eficacia de la simulación. Los parámetros de discriminación deben ser positivos y por lo tanto se inicializan con 1s. La eficiencia media de simulación es de aproximadamente 5, pero algunos de los parámetros convergen más lentamente que los otros, como. Que tiene el mayor error estándar MCMC (0,02) entre los parámetros de dificultad. Si se tratara de un estudio riguroso, para reducir los errores estándar de MCMC, recomendaríamos simulaciones más largas con tamaños de muestra MCMC de al menos 50.000. Podemos comparar los modelos 1PL y 2PL usando el criterio de información de desviación (DIC) disponible con el comando bayesstats ic. DIC se utiliza a menudo en la selección del modelo bayesiano como una alternativa a los criterios AIC y BIC y se puede obtener fácilmente de una muestra MCMC. Las muestras MCMC más grandes producen estimaciones DIC más confiables. Debido a que las diferentes muestras de MCMC producen diferentes valores DIC de muestra y el error de aproximación de muestra en el cálculo de DIC no se conoce, no se debe confiar únicamente en DIC al elegir un modelo. Los valores más bajos de DIC indican un mejor ajuste. La DIC del modelo 2PL (8,055) es notablemente inferior a la DIC del modelo 1PL (8,122), lo que implica un mejor ajuste del modelo 2PL. El modelo logístico de tres parámetros (3PL) introduce parámetros asíntoto inferiores (ci), también llamados parámetros de adivinación. La probabilidad de dar una respuesta correcta está dada por los parámetros de conjetura puede ser difícil de estimar con máxima verosimilitud. De hecho, el comando irt 3pl con la opción sepguessing falla al converger, como se puede verificar escribiendo en el dataset original. Por lo tanto, es importante especificar un previo informativo para (ci). Suponemos que la media anterior de los parámetros de adivinación es aproximadamente 0,1 y, por lo tanto, aplicamos ci sim (10, 1) Similarmente a los parámetros de discriminación y dificultad, los (ci) 8217s se introducen como parámetros de efectos aleatorios en la especificación bayesmh y son referidos A como en la especificación de verosimilitud. A diferencia de los modelos 1PL y 2PL, no podemos usar la opción de probabilidad (logit) para modelar la probabilidad de éxito porque la probabilidad de respuesta correcta ya no es una transformación inversa-logit de los parámetros. En cambio, usamos la probabilidad (dbernoulli ()) para modelar la probabilidad de éxito de un resultado de Bernoulli directamente. Para tener una inicialización válida del muestreador MCMC, asignamos los valores iniciales positivos (ci) 8217s, 0.1. Los medios posteriores estimados del (ci) 8217s oscilan entre 0,08 y 0,13. Claramente, la introducción de los parámetros de adivinación tiene un impacto en la discriminación del artículo y en los parámetros de dificultad. Por ejemplo, los medios posteriores estimados de (mua) y (mub) cambian de -0,10 y -0,07, respectivamente, para el modelo 2PL a 0,11 y 0,08, respectivamente, para el modelo 3PL. Debido a que los parámetros estimados de adivinación no son tan diferentes, uno puede preguntarse si los parámetros de adivinación específicos del elemento son realmente necesarios. Para responder a esta pregunta, nos adaptamos a un modelo con un parámetro de adivinación común,. Y compararlo con el modelo anterior. Podemos comparar nuevamente los dos modelos 3PL usando el comando bayesstats ic: Aunque los DICs estimados de los dos modelos 3PL son esencialmente iguales, decidimos, con fines de demostración, proceder con el modelo con parámetros de adivinación específicos de cada ítem. El modelo de cuatro parámetros de la logística (4PL) extiende el modelo 3PL mediante la adición de parámetros de asíntoto superior específicos del artículo (di): P (Y 1) ci (di - ci), ci PACES Consulting Hola Nikolay y Yulia, quería probar Usando el ejemplo para especificar un modelo de Rasch, que parece correcto (las estimaciones de parámetros también son razonablemente cercanas a las derivadas de jMetrik usando los mismos datos): webuse masc1, clear qui: g int id n qui: remodelar q largo, i (id ) Jv (elemento) fvset base ninguna id item set semilla 14 d // 1PL Ejemplo del artículo de blog bayesmh q ((-)), probabilidad (logit) redefinir (dif: i. item) redefinir (subj: i. id) prior (0, 1)) anterior (, normal (0, 1)) anterior (, normal (0, 1)) init (1) excluir (1, -)), la probabilidad (logit) redefine (dif: i. item) redefine (subj: i. id) anterior (, normal (0, 1) Burnin (5000) Sin embargo, no es tan claro como se podría derivar las estadísticas de infit / outfit, los residuos para las estimaciones de persona y elemento, o la mejor manera de fijar la estimación de la persona Usando la puntuación de la suma entre los ítems). Parece que las estimaciones en este ejemplo son todas las derivadas bayesianas del estimador MLE marginal, pero ¿hay una manera de ajustar los mismos modelos usando el MLE articulado (para los casos en que los parámetros de la persona necesitan ser estimados al mismo tiempo que el Parámetros del artículo) Por último, ¿hay alguna posibilidad de un seguimiento a este post que potencialmente mostrará cómo encajar muchos modelos rasch rasgo y / o modelos multidimensionales IRT usando bayesmh (caso sería bastante sorprendente ver) Gracias de nuevo y buen trabajo En la entrada del blog, Billy Vea nuestras respuestas a cada una de sus preguntas a continuación. Su especificación del modelo de Rasch es correcta. Es decir, para nuestro ejemplo de datos de matemáticas y ciencias, un modelo de Rasch se puede especificar como. Bayesmh y (-), probabilidad (logit) gt redefinir (subj: i. id) redefinir (delta: i. item). Aquí, marcamos los parámetros específicos del artículo como 8220delta8221 en lugar de 8220diff8221 como en nuestro ejemplo 1PL para enfatizar que las estimaciones de este modelo de Rasch serán diferentes de las del modelo 1PL ajustado. También hay más detalles sobre cómo ajustar un modelo de Rasch usando bayesmh y su enlace al modelo 1PL IRT en el ejemplo 28 en Bayesmh de Bayes. 2. Estimación conjunta de los parámetros específicos de persona y elemento bayesmh estima los parámetros específicos de la persona y de cada ítem en forma conjunta. En nuestros ejemplos de IRT, no estábamos interesados en las estimaciones específicas de la persona, por lo que utilizamos la opción exclude () para excluirlos de los resultados finales. Si no usa esta opción, las estimaciones específicas de la persona se guardarán con todas las estimaciones de MCMC y se mostrarán en la tabla de estimaciones. 3. Estadísticas de equipamiento / infit y residuos Dentro del marco bayesiano, las estadísticas de ajuste de modelo se obtienen utilizando la denominada distribución predictiva posterior, la distribución del resultado Y dados los datos observados y. Un valor p predictivo posterior asociado con una estadística de interés se utiliza a menudo para acceder a ajuste de modelo. Consideraremos escribir una entrada de blog de seguimiento sobre la evaluación predictiva posterior bayesiana de los modelos de IRT. 4. Modelos Rasch de muchas facetas y modelos IRT multidimensionales Al ver modelos Rasch de muchas facetas como teniendo parámetros adicionales de efectos aleatorios8221, podemos ampliar la especificación básica simplemente añadiendo más términos de efectos aleatorios. Continuando nuestro ejemplo de un modelo de Rasch, supongamos que hay otro 8220facet8221 representado por una tarea variable en el conjunto de datos. Id tarea 821282128212821282128212- 1 1 1 0 1 1 2 1 8230 100 10 5 0 Simplemente agregamos los parámetros de efectos aleatorios asociados con la tarea a nuestra especificación de modelo como sigue:. Fvset base ninguno ítem tarea. Bayesmh q (-), probabilidad (logit) gt redefinir (subj: i. id) gt redefinir (tarea: i. task) gt redefinir (delta: i. item). Dentro del contexto IRT, el modelo IRT bidimensional correspondiente podría ajustarse de la forma siguiente. (Utilizamos la especificación de un modelo IRT multidimensional dado por la fórmula (3) en Reckase (2007, p.612)). Fvset base ninguno ítem tarea. Bayesmh q (), probabilidad (logit) gt redefinir (subj: i. id) gt redefinir (tarea: i. task) gt redefinir (d: i. item). Donde los parámetros y son comunes entre los elementos. Si quisiéramos hacer estos parámetros específicos del artículo, podemos usar la siguiente especificación:. Fvset base ninguno ítem tarea. Gt redefine (a: i. item) gt redefine (a1: i. item) gt redefine (a1: i. item) gt redefine (tarea: i. task) I. item). Puede extender los modelos anteriores de manera sencilla para acomodar más facetas o dimensiones. Reckase, M. D. 2007. Teoría de Respuesta de Elementos Multidimensionales. En Vol. 26 de Handbook of Statistics: Psychometrics, ed. C. R. Rao y S. Sinharay, 607 - 642. Amsterdam: Elseiver. 8212 Nikolay y Yulia Hola Nikolay y Yulia, Impresionante. Creo que estamos hablando de cosas ligeramente diferentes con respecto a 3. Here8217s una explicación extremadamente breve de las estadísticas de infit / outfit de la perspectiva de Rasch: rasch. org/rmt/rmt162f. htm, así como un extracto parcialmente útil de Wright, BD amp Masters, GN (1982). Análisis de escala de calificación. Chicago, IL: Prensa de MESA: rasch. org/rmt/rmt34e. htm. Las estadísticas de infit / outfit se usan cuando se toman decisiones sobre la retención / caída de un elemento del banco / calibración de puntuación / elemento y hasta cierto punto la persona análogos de estas estadísticas podría ser útil para detectar posibles casos de irregularidades de prueba (por ejemplo, un estudiante con baja Theta que responde preguntas difíciles correctamente y preguntas más fáciles en los niveles de la ocasión, etc8230). Nada I8217ve leer hasta el momento ha hablado de una bondad estilo ómnibus de ajuste, y la discusión (por lo menos con la gente del campo de Rasch) tiende a invertirse en la prueba qué tan bien los datos se ajustan al modelo (en lugar de qué tan bien los ajustes del modelo los datos). En cualquier caso, esto es impresionante y oportuno (hubo una comparación de Stata8217s Bayesian capacidades JAGS y Stan en Andrew Gelman8217s blog hoy). Si es posible lanzar otra idea potencial para una futura entrada en el blog, si no es demasiado problemático cualquier cosa que demuestre que encajar cualquier modelo de clase latente y / o modelos de mezcla de mezcla sería verdaderamente excepcional. Gracias de nuevo, Billy Hi Nikolay y Yulia, Como un breve seguimiento con respecto a las estadísticas conjuntas de MLE y Infit / Outfit, preparé una demostración rápida de algunas de las diferencias que observé. El programa es un contenedor que pasa los datos de Stata en algunas de las clases utilizadas por jMetrik (ver GitHub / meyerjp3 / psicometría para obtener más información) para ajustar el modelo de Rasch, utilizando el estimador de máxima verosimilitud conjunta (así como los valores de infit / traje ). El programa también crea variables en el conjunto de datos en la memoria con las estimaciones del nivel de persona theta, la SE en torno theta, y las estadísticas infit / equipo de nivel de la persona: raschjmle neta del corriente, a partir de (8220paces-consulting. org/stata8221) webuse masc1. DTA, claro iteración Delta diario de probabilidad 1 ,502591842208104 -3402.304331969046 2 ,142412255554409 -3397.822027114892 3 ,020979991419945 -3397.719031584525 4 ,003561687956111 -3397.716620516149 5 ,000591506681447 -3397.716599152711 dificultad artículo Std. Error WMS Std. WMS UMS Std. UMS Q1 0,08 0,85 -4,32 -0,40 0,84 -2,86 0,08 1,03 Q2 1,04 0,11 1,05 1,04 0,10 0,93 Q3 -1.39 -1.36 -1.39 0.86 0.08 0.99 Q4 -0.25 0.49 1.02 0.38 0.09 0.93 Q5 -1.54 1.66 1.02 0.28 0.82 0.08 0.93 Q6 -2.05 0.95 -0.82 0.09 1.10 Q7 2,42 1,37 1,17 1,99 0,11 0,77 Q8 -3.81 -1.87 -1.14 0.85 0.09 1.04 q9 1.04 -0.81 1.13 1.66 escala de calidad estadisticas Artículos Personas observado Diferencia 1.3031 1.4411 observado Std. Dev. 1,1415 1,2005 Error cuadrático medio 0,0080 0,7097 MSE raíz 0,0894 0,8425 Variación ajustada 1,2951 0,7314 Std ajustado. Dev. 1.1380 0.8552 Índice de separación 12.7235 1.0151 Número de estratos 17.2980 1.6868 Fiabilidad 0.9939 0.5075 Puntuación Theta Std. Err Como hemos mencionado anteriormente, la formulación bayesmh del modelo de Rasch estima conjuntamente los parámetros específicos de cada elemento y de cada persona. Las estimaciones bayesianas de los parámetros deben ser razonablemente cercanas a las obtenidas usando la estimación de máxima verosimilitud conjunta. Sin embargo, algunas diferencias son permisibles debido al uso de distribuciones informativas anteriores en la especificación del modelo bayesiano. Sin embargo, las estimaciones que usted reporta usando el comando raschjmle son significativamente diferentes. Creo que la razón de esto es que las estimaciones del rascicle 8216s están centradas. Por ejemplo, si centra las estimaciones medias posteriores reportadas por bayesmh, los resultados parecen estar de acuerdo. A continuación, se muestra la totalidad del modelo bayesiano de conjunto de semillas 14 bayesmh q (1 (-)), probabilidad (logit) /// redefinir (diff: i. item) redefinir (subj: i. id) /// anterior (0, 1)) /// anterior (, normal (0, 1)) /// excluir () burnin (5000) puntos guardar (sim1, reemplazar) Con las siguientes líneas de código centrar las estimaciones medias posteriores para Problema y enumerarlos. mitem matriz de correo (media) mitem clara svmat, nombre (punto) Artículo Summ, meanonly elemento descontinuó la GEN - r (media) Lista 82128212821282128212821282128211 elemento1 descontinuó 82128212821282128212821282128211 1. -.6146172 -.4006386 2. 3. -.104734 0.1092446 -1.578288 4. -1.364309 0.2841987 0.4981773 1.444101 1.65808 5. 6. 82128212821282128212821282128211 0,6083501 0,8223287 1,159187 1,373166 7. 8. 9. -2.090234 -1.876255 -1.033772 -.8197934 82128212821282128212821282128211 Gracias de nuevo por la información adicional. Pensé que podría haber habido diferencias más sustanciales entre los algoritmos MLE marginales y conjuntos para estimar los parámetros de elemento y persona, pero esto definitivamente ayuda bastante. Gracias de nuevo, Billy Hola, realmente aprecio este post y el trabajo que has hecho en estos modelos. Tengo un problema mucho más simple. Al intentar establecer un modelo IRT bayesiano simple con datos que tiene 37.000 observaciones con 10 preguntas cada una. Cada vez que intento ejecutar el 1PL descrito anteriormente, obtengo el siguiente error: falta la variable id o contiene valores no enteros r (198). Seguro que esto tiene algo que ver con la forma en que se almacena el id, pero aún no he podido averiguar cómo corregirlo. Buena presentación en la conferencia de Stata Nikolay. Definitivamente cool para obtener un poco más de explicación de las cosas y ver otros usos de las técnicas.
No comments:
Post a Comment