Falacias, dilemas y paradojas, 2a ed.. Manuel Sanchis i Marco

Чтение книги онлайн.

Читать онлайн книгу Falacias, dilemas y paradojas, 2a ed. - Manuel Sanchis i Marco страница 17

Falacias, dilemas y paradojas, 2a ed. - Manuel Sanchis i Marco Educació. Sèrie Materials

Скачать книгу

en física, también en otras lenguas– significa ‘incremento de la velocidad en la unidad de tiempo’, es decir, aumentar la velocidad de alguna cosa en una unidad de tiempo. En física también tiene el mismo significado. Desgraciadamente, el diccionario de la RAE no nos clarifica si este incremento es constante y estable, es decir, en el sentido de una segunda derivada con valor constante, o por el contrario, variable en el sentido, por ejemplo, de una función de crecimiento exponencial.

      Si el aumento de la velocidad no es continuo en el tiempo, sino que sólo se produce en un intervalo temporal finito, entonces la velocidad se incrementa hasta un nuevo valor, pero se estanca o –lo que es lo mismo– se estabiliza. Por eso, aunque no lo recoja el diccionario, el «sentido» del verbo acelerar, en la forma en que habitualmente lo utilizamos, es el de incremento continuo, que podría tomar la forma de función parabólica, exponencial u otra distinta, y no el de un salto discreto desde un nivel anterior de velocidad en la unidad de tiempo –y, por tanto, desde un nivel «estable» de velocidad– a otro nivel «estable» de velocidad.

      En resumen, matemáticamente todas las derivadas son posibles. La interpretación «física», por su parte, determina el «sentido» de las funciones y se refiere a «cosas», siendo posibles todas las derivadas de esas cosas y, por lo tanto, «la función o variable posición de una partícula y la función o variable economía» podrían interpretarse del mismo modo.

      Retomando el inicio de la píldora, cuando el ministro de Economía y Hacienda afirmaba que existía una «desaceleración acelerada», ello suponía y supone, según lo expuesto, que la desaceleración con el tiempo sigue una función que no es lineal –ya sea parabólica, exponencial o polinomio de orden mayor que la unidad– y, por lo tanto, hay que entender sus palabras como que «nos desaceleramos cada vez más rápidamente», ya que en el caso de que fuese una función lineal ese ritmo de desaceleración sería constante.

      En otras palabras, si hoy la economía se desacelerase a razón de un cierto valor/día, digamos 10, mañana nos desaceleraríamos a razón de, por ejemplo, 100, pero pasado mañana no a razón de 1.000 (como cabría esperar si la relación fuera lineal), sino a razón de una magnitud superior, digamos 10.000, y el día siguiente, digamos 10.000.000.000, y así sucesivamente. Por suerte, el señor ministro de Economía no concretó si la aceleración de la desaceleración era constante o acelerada. En el caso de que fuese constante, la desaceleración se aceleraría de forma vertiginosa y se haría casi incalculable. Pero si la aceleración de la desaceleración se incrementase con el tiempo, es decir, fuese a su vez acelerada... ¡Qué mareo! En su lugar, casi que habría preferido utilizar la palabra recesión, o el término crisis económica, no sé... algo más tranquilo... ¿no?

      El dilema Goodhart

      Las variables económicas tienen vida propia y, cuando se sacralizan, todavía más. Conviene tener esto muy en cuenta cuando se aborda cualquier análisis de tipo económico. En primer lugar, porque tanto la buena investigación empírica como el buen análisis económico requieren, para empezar, un examen detenido de los escollos y las trampas que nos tienden los propios datos, lo cual, en muchas ocasiones, sitúa la economía más cerca de un arte que de una ciencia. En segundo lugar, porque los datos están cargados de teoría la mayor parte de las veces, y este hecho produce un debilitamiento del proceso de objetivación en economía y del valor pretendidamente objetivo del análisis económico, de las verificaciones empíricas y de su carácter predictivo y, por lo tanto, científico.

      Por esta razón, es conveniente que, antes de empezar cualquier investigación, sopesemos con cuidado lo apropiado que resulta elegir una u otra serie de datos; valoraremos lo que llamaría «limpieza de los datos». También conviene evaluar qué problemas nos pueden crear las observaciones extremas, las interacciones y, sobre todo, las variables irrelevantes que tantas malas pasadas juegan a los sistemas abiertos y complejos, como es el caso de la economía, cuyas predicciones no pueden tomar en cuenta dichas variables a pesar de que vienen determinadas por ellas. Por eso, muchas veces, éstas impiden que se le pueda aplicar a la economía la definición clásica de conocimiento, es decir, la de creencia verdadera justificada.

      La importancia de utilizar datos económicos apropiados, limpios y descargados de teoría quedaría en parte englobada en lo que los económetras han etiquetado con el nombre de «errores de medida» (measurement errors), y que tienen una importancia capital, especialmente en los análisis económicos relativos a las cuestiones del mercado de trabajo. Pero hay más. Aun teniendo datos «limpios» y evitando la influencia de las variables irrelevantes, todavía es posible un comportamiento perverso de éstos, y aquí es donde entra en juego el famoso dilema Goodhart.

      El origen de este dilema se encuentra en otro que veremos en la píldora que se refiere a la controversia entre la instrumentación de la política económica, ya sea mediante reglas o normas (rules) –como, por ejemplo, ocurría en los años setenta y ochenta con el establecimiento de normas monetarias para el crecimiento anual del stock de dinero– ya sea, por el contrario, mediante la discrecionalidad y el buen juicio económico (judgment) (Sanchis y Bekx, 1994: 21). En efecto, el dilema Goodhart nos habla de la capacidad que tienen algunas variables económicas para comportarse de forma caprichosa e inconsistente con lo que había sido, hasta ese momento, su trayectoria vital, una vez que las autoridades las sitúan bajo los focos de la observación pública y atribuyen a su evolución un elevado valor político. De este modo, se encuentran sometidas a un estricto control y presión políticos.

      Charles Goodhart, profesor de la London School of Economics, criticaba el pretendido valor taumatúrgico que los monetaristas atribuían al control –mediante el establecimiento de reglas– de las distintas definiciones de stock monetario al analizar la estabilidad de la demanda de dinero, y planteó el dilema que subyacía a la relación entre magnitud monetaria y gasto nominal, en los siguientes términos: «cualquier relación estadística estable tenderá a debilitarse tan pronto como pretenda utilizarse como mecanismo de control».

      Pero el dilema Goodhart se extiende más allá de lo monetario e invade otros terrenos de la economía, como puedan ser el de la política fiscal o el del mercado de trabajo, entre otros. También va más allá de lo económico e invade cualquier otro ámbito del comportamiento humano que se encuentre bajo presión, ya sea la política o de otro tipo, siempre que tenga lugar bajo los mismos presupuestos. En definitiva, el dilema Goodhart no es otra cosa que nuestro castizo: «hecha la ley hecha la trampa». En el terreno de la industria armamentística, por ejemplo, España prohibió hace poco la fabricación de bombas antipersonas, pero sigue fabricando cuatro tipos distintos de bombas racimo cuyos efectos sobre el terreno son equivalentes a los de las bombas antipersonas.

      Recordemos también el período anterior a los informes de convergencia de la Comisión Europea y del Banco Central Europeo que hicieron luego posible el nihil obstat del consejo Europeo para permitir la entrada de los países de la Unión Europea en el euro. En aquellos años, la prensa europea hablaba continuamente de «contabilidad creativa» al referirse a los criterios estadísticos y de contabilización para determinadas operaciones de la contabilidad nacional que establecían algunos países con el fin de alcanzar la cifra objetivo de déficit a la que obligaba el Tratado de Maastricht.

      Algo parecido empezó a ocurrir en materia de empleo desde que se lanzó en 1997, durante la Cumbre de Luxemburgo, la Estrategia Europea para el Empleo. Y sigue ocurriendo hoy, sólo basta con leer algunos de los titulares de aquella época y otros más recientes: (i) «El paro se reduce en 202.600 personas hasta marzo tras los cambios introducidos en la EPA» (El País, 20/05/1999); (ii) «Los métodos de la EPA, en entredicho. Los cambios metodológicos en la Encuesta de Población Activa desatan la polémica sobre la fiabilidad de la muestra» (El País, 1999), y (iii) «La nueva EPA endurece los requisitos para calificar a los parados y los reduce en 334.600. Un cambio por imperativo europeo» (El País, 3/02/2002).

Скачать книгу