Esta es la segunda parte de la versión en español de mi artículo de octubre en Mapping Ignorance. Debe leerse la primera parte para entender esta.
Referencias
Stahl y Wilson (1994) [5] proponen un modelo de razonamiento estratégico que combina elementos de los modelos QRE y nivel k. En QLk los agentes tienen tres niveles de razonamiento, como en el modelo nivel k, y cada agente responde a sus creencias de manera cuantal, como en QRE. El modelo se caracteriza por cinco parámetros: dos para determinar las proporciones de individuos de niveles 0, 1 y 2, y tres más para especificar una manera particular de modelar los errores: las probabilidades de cometer un error por parte de los individuos de niveles 1 y 2 y –esta es una novedad- las creencias de los jugadores de novel 2 acerca de la probabilidad de cometer un error que tienen los jugadores de nivel 1.
Introspección con ruido
Goeree y Holt (2004) [6] proponen un modelo en el que los niveles de razonamiento estratégico no están limitados a un número fijo. Como otros modelos, considera una mezcla de diferentes jugadores con diferentes niveles de razonamiento. Además, el modelo requiere un vector de parámetros para definir la distribución de los tipos de jugadores, un parámetro por los errores de los individuos de nivel 0 y un último parámetro que determina cuán rápidamente aumentan los errores con el nivel de razonamiento. Sin embargo, los autores muestran que el modelo converge a una única predicción tras un número finito de iteraciones en el nivel de razonamiento estratégico no importa cuál sea la elección de parámetros que definen la distribución de jugadores. De esta manera solamente dos parámetros son realmente importantes.
Comparando los modelos
Los modelos predicen no solo las probabilidades de elegir una estrategia, sino también una distribución de probabilidad completa sobre el conjunto de posibles estrategias. Así, uno no puede simplemente ordenar qué tal predicen los modelos la elección de una estrategia en particular. De acuerdo con esto, los autores usan el criterio de verosimilitud: para cada dato de un juego experimental computan la probabilidad de las acciones observadas de acuerdo con la predicción del modelo.
Hay un segundo problema que surge por tener los modelos distintos grados de libertad dados por los parámetros necesarios para su especificación. Tras descartar tres posibilidades, los autores siguen el enfoque usado en el aprendizaje automático (machine learning). Primero calibran los parámetros de cada modelo que mejor se ajustan a un subconjunto de los datos experimentales y después evalúan el modelo resultante en el resto de los datos. Para este propósito, los datos experimentales se dividen aleatoriamente en dos conjuntos, uno para la calibración y el otro para la comprobación.
Como los autores están interesados en comparar la verosimilitud de los datos experimentales y puesto que el equilibrio de Nash asigna una probabilidad cero a cualquier estrategia que no sea una mejor respuesta, hace falta una modificación del equilibrio de Nash. Los autores introducen una probabilidad de que los jugadores cometan errores, de manera que cualquier resultado tiene una probabilidad positiva. De esta manera se pueden aplicar las técnicas de calibración usadas en otros modelos.
Hay todavía más complicaciones que resolver, como la interpretación de los parámetros, su robustez y la comparación entre modelos con diferentes grados de libertad. De especial importancia es considerar variaciones de los modelos, puesto que algunos de ellos parecen depender de supuestos arbitrarios.
Tras construir su conjunto de datos con todos los experimentos publicados sobre los diferentes modelos para juegos no repetidos, y tras resolver las cuestiones antes mencionadas, los autores encuentran que el mejor modelo, con diferencia, es el cuantal de nivel k (QLk). Este resultado contradice sugerencias anteriores a favor del modelo de jerarquía cognitiva. Los autores van más allá y proponen algunos cambios en el modelo que reducen el número de parámetros a tres y que aun así aumenta su poder predictivo. De acuerdo con los autores, los buenos resultados de QLk se deben a su combinación de razonamiento acotado e iterativo, y de errores proporcionales a los costes. Estas características del modelo pueden describir el razonamiento humano o pueden simplemente ser una aproximación al comportamiento humano mejor que la acostumbrada especificación de errores uniformes.
5. Stahl, D., y Wilson, P. 1994. Experimental evidence on players’ models of other players. Journal of Economic Behavior and Organization 25 (3), 309–327.
6. Goeree, J.K., y Holt, C.A. 2004. A model of noisy introspection. Games and Economic Behavior 46 (2), 365–382.
-----------------------------------------------------------------------------------------------------------
Hace cinco años en el blog: Ciencia, pseudociencia y periodismo.
Hace tres años en el blog: La presentación de la propuesta económica de V. Navarro y J. Torres para Podemos.
-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: La presentación de la propuesta económica de V. Navarro y J. Torres para Podemos.
-----------------------------------------------------------------------------------------------------------