Los Pioneros de los Modelos Empíricos de Equilibrio en Economía Industrial

de

Hace una semana a Tim Bresnahan, Ariel Pakes, y Rob Porter en la categoría de Economía, Finanzas y Gestión de Empresas. Esta es una excelente noticia que reconoce la labor de estos investigadores, padres de la ya no tan nueva organización industrial empírica. Vaya por delante mi felicitación a los galardonados, cuyos trabajos inspiraron mi propia investigación y cuyos consejos desinteresados la mejoraron sin lugar a dudas. Voy a aprovechar la ocasión de poner en perspectiva la contribución de Tim, Ariel y Rob y lo voy a hacer en clave personal puesto que de alguna manera tuve la suerte de crecer intelectualmente a la sombra del desarrollo de esta nueva metodología empírica.

Cuando me vine a los Estados Unidos, la teoría dominaba el campo de la organización industrial. Hacía sólo dos años que Tirole había publicado su libro. En unos pocos departamentos (Stanford, Northwestern, Yale) los ahora galardonados desarrollaban modelos empíricos para analizar mercados no competitivos. El rasgo fundamental de la nueva organización industrial empírica no es tanto que se base en modelos estructurales como que son de equilibrio. Muchos economistas todavía entienden por estructural el uso de formas funcionales no lineales. Estos nuevos modelos empíricos tienen un fuerte componente teórico que ayudan a recuperar variables no observables a partir de condiciones de equilibrio. Un economista no puede vivir sin un coste marginal aunque medirlo es difícil. La solución es simple: las empresas no-competitivas maximizarán beneficios donde ingresos y costes marginales se igualen. Si realmente creemos que las empresas se comportan de acuerdo con un modelo de oligopolio, una vez especificamos la demanda correctamente, los precios de mercado revelan el nivel de ingreso marginal y por tanto el coste marginal. Recuperar estos parámetros estructurales permite entonces un rico análisis donde podemos evaluar políticas alternativas, algo particularmente útil en el caso del análisis de estrategia de precios, diseño de subastas, entrada de empresas, posicionamiento de nuevos productos, y cómo no, fusiones de empresas.

He de reconocer que el comienzo del curso de Rob fue algo decepcionante. Nos aconsejó que lo primero que teníamos que hacer era conseguir datos de una industria donde hubiese una cuestión de estudio, quizás una regulación, que lo hiciera económicamente relevante. Debíamos aprender los detalles institucionales y de funcionamiento de las empresas e identificar las variables estratégicas relevantes. ¡Y yo que venía a resolver teoremas!

Más tarde, estudiando sus artículos todo aquello empezó a tomar sentido. Los datos y las reglas de comportamiento explícitas de un cartel ferroviario revelaban que los miembros del mismo establecían un periodo limitado de castigo a sus competidores en caso de romperse el acuerdo colusivo. Esto generaba una sucesión de guerra de precios pero entraba en contradicción con los resultados teóricos disponibles en aquel entonces, donde el Folk Theorem, solo consideraba trigger strategies con un período de castigo indefinido. Hay varias formas de resolver este conflicto. Podemos concluir que los miembros del cartel no tienen ni idea de economía, ignorar la evidencia y seguir construyendo modelos teóricos ajenos a la realidad. Podemos también dedicarnos a medir de qué depende el comportamiento “irracional” de las empresas. O mejor, podemos estrujarnos el cerebro para modificar los modelos teóricos de forma que el comportamiento observado en los datos pueda explicarse como la solución de equilibrio de un modelo teórico más general. Y es así como estudiando un viejo cartel ferroviario del Siglo XIX, se publica sobre guerra de precios, la existencia de equilibrio colusivo en presencia de incertidumbre de demanda y se diseña la estimación de un switching regression system donde el régimen no es obserable. De repente lo de investigar industrias me pareció mucho más interesante y prometedor.

Rob ha escrito muchos otros trabajos pero es necesario mencionar su análisis empírico de subastas donde de nuevo recurre a modelos de equilibrio para evaluar, a partir de las pujas observadas, el papel de la información de cada bidder ( o ) y la posibilidad de acuerdos colusivos en subastas (ver ). Estos trabajos son los precursores de la muy amplia literatura empírica de subastas de las dos últimas décadas.

No existe mejor manera de aproximarnos al estudio de la organización industrial empírica que leer los primeros trabajos de Tim Bresnahan. Su brillantez (por lo sencillos que son) me impresionó cuando los leí en mi doctorado y no encuentro mejor manera de explicar la dificultad inherente de separar la endogeneidad de los precios de un mercado en sus tres componentes: respuesta de la demanda a cambios en el precios, cambios en los costes y variaciones en la conducta de las empresas (los dos últimos no directamente observables). Tim sugiere pronto el uso de variaciones conjeturales (ver ) para estimar la demanda de industrias no competitivas controlando por distintas conductas de las empresas, una asignatura todavía no resuelta satisfactoriamente en la literatura.  es un clásico que muestra cómo empresas en industrias habitualmente consideradas competitivas tienen un poder de mercado importante bien sea por localización o por diferenciación de producto. El uso de modelos de teoría de juegos para ilustrar por qué necesitamos de variables instrumentales para controlar por la endogeneidad de los precios es simplemente genial y abre la puerta a la literatura de modelos econométricos basados en teoría de juegos de finales de los noventa y principios de siglo, muchos de ellos motivados por la existencia de multiplicidad de equilibrios en juegos discretos de entrada de empresas (ver ).

Tim tiene un interés profundo en el estudio de innovaciones, en particular en cómo los incentivos económicos favorecen la automatización y el uso generalizado de computadoras. Pero en mi opinión, son otros dos trabajos los que, con todas sus limitaciones, marcan completamente la agenda de investigación de la organización industrial en las dos décadas siguientes: su trabajo sobre el mercado automovilístico (ver ) aborda por primera vez cómo estimar un modelo de demanda con productos horizontalmente diferenciados y cómo identificar conductas de mercado. El otro es el análisis de entrada de empresas en mercados no competitivos (ver ), donde se pone de manifiesto que el número de empresas no depende exclusivamente del tamaño del mercado sino que también viene dado por el régimen de competencia de la industria.

Conocí a Ariel Pakes un año después de graduarme. Nunca nadie hasta entonces me había hecho pensar tanto y tan profundamente en los límites y posibilidades de mis modelos. Todo parecía ser endógeno y no había límite a lo que no se pudiera calcular a partir de unos datos y unos supuestos razonables de comportamiento. He de reconocer que me abrumaba un poco.

Si algo distingue a Ariel es el rigor econométrico de sus modelos y el llevarlos al límite de lo que los datos pueden identificar. Así, cada artículo abre la puerta a una secuela de trabajos que lo perfeccionan o aplican a otros campos. resuelve problemas de elección discreta dinámica por métodos recursivos para generar proporciones de renovaciones que son comparadas con los datos. Este planteamiento de optimización individual que genera momentos agregados está detrás de su método simulado de momentos (ver ), de dinámica industrial (ver ) y del famoso BLP (ver Berry-Levinsohn-Pakes). En todos ellos las acciones de las empresas se consideran óptimas, bien sea en lo concerniente a la entrada o fijación de precios. Sobre esa premisa se asume un comportamiento no-cooperativo entre empresas para, a partir de los precios observados y cuotas de mercado de cada producto recuperar los valores de costes marginales que racionalizan esos precios. Los modelos son siempre flexibles y permiten controlar por elementos no observables tales como características de los productos o preferencias heterogéneas de los agentes. Los datos son siempre la restricción. Estos modelos tienen que generar momentos agregados cuando no existen datos de decisiones individuales.

Ariel utiliza esta misma metodología para resucitar la estimación de funciones de producción (ver ) donde la productividad, un elemento elusivo, se identifica a partir de las decisiones de equilibrio de inversión en capital y/o cierre de las empresas. De igual modo, esta idea de equilibrio está detrás del planteamiento de sus modelos de moment inequality ( o ) donde los parámetros de un modelo estructural se estiman a partir de desigualdades derivadas del comportamiento optimizador de las empresas; esto es, un planteamiento de preferencia revelada aplicado a tantas variables endógenas se considere oportuno modelar.

Todo este trabajo ha abierto la puerta a generaciones más jóvenes que han extendido el uso de estos métodos a otras áreas de la economía, desde el análisis dinámico de industrias con importantes economías de red como aerolíneas, a otras como seguros o salud donde los problemas más acuciantes son la existencia de agentes con distinta capacidad de negociación o la existencia de moral hazard y adverse selection en el diseño óptimo de contratos. Y ni que decir tiene del uso de esta metodología para el análisis de fusiones y evaluación de regulaciones de todo tipo.

Un par de reflexiones para acabar. Primero, todo este trabajo ingente es seguido con interés por un grupo de investigadores muy activo pero relativamente reducido y geográficamente centrado en los Estados Unidos. Son todavía pocos los centros Europeos donde se enseñan y usan estos métodos empíricos. Más preocupante es que otras áreas de la economía como la macro o internacional ignoren los avances en estimación de modelos de equilibrio cuando ellos usan versiones extremadamente restringidas simplemente por conveniencia (por ejemplo demandas isoelásticas o funciones de producción CES). No les acuso de nada. Somos los que nos dedicamos a la organización industrial empírica los que deberíamos hacer el esfuerzo de hacernos entender mejor por parte de una audiencia mayor. Y segundo, hace veinte o treinta años estos pioneros desarrollaban métodos de estimación con unos datos agregados muy limitados. Esto les obligaba a pensar mucho sobre los elementos fundamentales de la teoría que fundamentaban sus estimaciones. Hoy estamos en el mundo del big data y tanta abundancia de datos es un arma de doble filo. Por un lado podemos abordar muchos más problemas con la confianza de que nuestras estimaciones son robustas. Pero al mismo tiempo podemos sucumbir a limitarnos a la descripción de los datos sin pensar mucho en la estructura de la industria objeto de estudio.

Pero esto no les incumbe a los galardonados. Con su esfuerzo, ellos pusieron una gran revolución metodológica en marcha. A ver si en Estocolmo empiezan a tomar nota.

https://karter-kiev.net

shtory.ua

www.alfaakb.com/akkumuljatory-harkov/