Soportes Materiales De La Identidad

  • November 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Soportes Materiales De La Identidad as PDF for free.

More details

  • Words: 17,418
  • Pages: 39
Lo falso auténtico: cosas en personas

A. Javier Izquierdo UNED, Madrid

Borrador preliminar del texto preparado como contribución al seminario Los soportes materiales de la identidad CEIC-IKI / UPV-EHU Leioa, 14-15 octubre de 2004

[Recuento de palabras: 17.312]

Datos de contacto: Dept. Sociología I Facultad de Ciencias Políticas y Sociología UNED Obispo Trejo s/n, 28040 Madrid e-mail: [email protected]

Resumen: En un mundo atestado de policías científicos, la articulación formal de modelos públicamente comunicables del conocimiento experto abre infinidad de nuevos caminos para quienes pretenden perpetrar con éxito cualquier tipo de fraude. La progresiva codificación y harmonización de las pericias de autenticación, ha resultado ser un regalo impagable para la recalcitrante banda de falsificadores-imitadores que, a través de esta vía paradójica, consiguen de manera poco menos que gratuita los costosísimos recursos, herramientas y competencias que necesitan para llevar exitosamente a cabo su trabajo. Sea, por ejemplo, el caso del empleo de modelos de computo mecánico para simular la manera naturalmente implícita como los expertos formulan sus juicios evaluativos. En razón, justamente, de la estricta “economía de percepción” que hace posible, el uso forense de pruebas de hipótesis estadísticas, expediente burocrático que en una gran mayoría de campos de investigación está considerado el procedimiento metodológicamente más eficiente y tecnológicamente más fiable para llevar a cabo la crítica científica de las apariencias de realidad, abre de par en par las puertas a todas aquellas acciones humanas cuyo propósito expreso es intentar dar gato por liebre. En última instancia, las maniobras del falsificador de calidad, fabricante de objetos dobles para los cuales los historiadores del arte han acuñado el oxímoro falso auténtico, desencadenan una interesante dinámica evolutiva plagada de simetrías reflexivas. El buen falsificador obliga al experto-crítico a mejorar sus herramientas de detección y sus métodos de análisis, y en particular a incluir como elemento inexcusable de toda prueba de autenticación un seguimiento específico de la trayectoria con frecuencia errática que debió seguir el ente bajo sospecha hasta llegar a sus manos. De esta clase de pesquisas preventivas, que tratan de anticipar la modelización estratégica del defraudador reflexivo, se nutre, en el largo plazo, la historia de las técnicas de control de calidad y los dispositivos de protección antifraude. Quienes perpetran endógenamente el engaño y la falsificación son, en efecto, los mejores aliados de sus colegas, los críticos policiales, en la incansable búsqueda conjunta de la realidad de lo real.

Índice I. La deconstrucción de la fiabilidad, una cuestión de procedimiento II. Falsificar el azar o el crimen perfecto III. La teoría de la falsificación experta IV. La verdad está desnuda Apéndices: Objetos de fe A. Obras sagradas son encontradas B. Artenticidad C. Hechos científicos hechos D. Dinero clónico

El falso auténtico: cosas en personas Quien dice modelo dice posibilidad de falsificación. [...] Sin embargo, si todo fuese el producto de cálculos, entonces el falsificador siempre podría llevar a cabo esos cálculos con antelación y coger la delantera a los críticos... De modo que es preciso que exista alguna cosa que no sea producto del cálculo, una suerte de resto que quede siempre omitido por las aproximaciones estratégicas.1

I. La deconstrucción de la fiabilidad, una cuestión de procedimiento

La demostrada prevalencia de los sistemas de conocimiento legal sobre los sistemas de conocimiento tecnocientífico como verdadera potencia legitimadora de “la verdad sobre lo que realmente ocurrió y quién, cómo y por qué lo hizo”2, no es tanto el producto de una supuesta “superioridad intelectual”, si es que puede decirse que existe algo así, como la consecuencia de su inserción diferencial en las redes asociativas y los juegos gubernamentales del poder político, en cuyo interior la activación práctica de las convenciones del método legal sigue todavía (aunque tal vez no por mucho tiempo) movilizando un contingente de fuerzas colectivas superior al que aglutina en torno a sí la aplicación de las reglas del método científico.3 La ciencia forense se define como el

1

C. Bessy y F. Chateauraynaud, Experts et faussaires. Pour une sociologie de la perception, París, Métalié, 1995, 249, 253. 2 La “investigación penal” fue inventada varios siglos antes que el método científico, para cuyo desarrollo posterior sirvió de principal referente práctico (M. Foucault, La verdad y las formas jurídicas, Barcelona, Gedisa, 1998, 18). En el origen de los primitivos procedimientos de investigación policial y judicial podría haber estado, a su vez, los métodos de la inquisitio generalis y la inquisitio specialis de la administración religiosa medieval (id., 81). 3 “Al mismo tiempo que se expande el papel del conocimiento científico en los procesos legales, los modelos de procedimiento legal empiezan también a entrar en la ciencia. Esto es así porque los propios mecanismos procedimentales informales de la ciencia son considerados inadecuados para alcanzar una verdad autorizada en cuestiones de política pública altamente disputadas. [...] De hecho, para la ciencia forense y la patología forense, es el proceso legal mismo quien ha creado su forma característica de interacción profesional y conocimiento especializado. La integración social del peritaje forense dentro de la ley es tal que los peritos forenses han aprendido a reconciliar su trabajo con el escepticismo adversarial característico los procesos legales, y a la vez, a mantener el discurso consensuado normal de la comunidad científica. Así, mientras que otras disciplinas científicas pueden manejar esta contradicción

1

estudio sistemático de los métodos y las técnicas empleados por los delincuentes para la comisión de sus delitos, así como de sus ‘móviles’ o razones, con el objetivo final de averiguar la identidad del delincuente, esto es, de encontrar una personas con nombre y apellidos que pueda ser declarada responsable del delito. La fundación moderna de la ciencia forense suele remontarse a la fecha mítica de 1910, cuando Edmond Locard, investigador de la Universidad de Lyon, publicó su teoría del “rastro de contacto”, que sostiene sencillamente que un delincuente porta siempre consigo algún rastro o vestigio de su contacto con la escena del crimen, y, simétricamente, que en la escena del crimen puede siempre encontrarse alguna huella dejada por el delincuente en su contacto material con los objetos que la conformaban.4 El estudio detenido del uso legal de las pruebas estadísticas de hipótesis muestra cómo el empleo de métodos formales de inferencia probable y las pruebas estadísticas de hipótesis como evidencia pericial para defender un caso ante los tribunales no permite, en realidad, probar legalmente hecho alguno.5 “En los litigios que implican discriminación laboral o competencia desleal, por ejemplo, se ha hecho muy común que cada una de las partes contrate su propio experto estadístico para apoyar su caso y que el juez o el jurado tengan que evaluar los diferentes análisis estadísticos presentados por esos expertos, análisis que generalmente conducen a conclusiones contradictorias... [El problema es que] incluso aquellos métodos que son considerados estándares por algunos estadísticos son considerados inapropiados por otros. [Por ejemplo] muchos estadísticos piensan que las pruebas de significación estadística, cuando se interpretan de forma apropiada, sencillamente no responden al tipo de cuestiones relevantes para dilucidar un caso legal. Asimismo, mientras que para algunos estadísticos los intervalos de confianza constituyen el esqueleto mismo de la estadística aplicada, para otros los aspectos ad infinitum de este concepto constituyen una gran preocupación... En resumen, la estadística contemporánea, tal como se aplica en el dominio legal, es un campo terriblemente controvertido. Aquellos mismos métodos que algunos estadísticos consideran los más útiles son considerados por definiendo el contexto de interacción de la sala de juicios como ‘no científico’, esta opción no es fácilmente accesible para los expertos forenses, puesto que la sala de juicios es su arena profesional fundamental.” (R. Smith y B. Wynne, “Introduction”, en Smith y Wynne (eds.), Expert Evidence: Interpreting Science in the Law, Londres, Routledge 1989, 1-22, cit. p. 2, 15). 4 B. Lane, The Encyclopedia of Forensic Science, Londres, Headline, 1993, 1-2. 5 Vid. A.J. Izquierdo, “Delitos, faltas y Premios Nobel. Autoría científica, riesgo económico y responsabilidad moral en el escándalo financiero de Long-Term Capital Management”, Política y Sociedad, 39 (2), 339-359 y “La justicia del accidente. Variaciones sobre el Síndrome del Síndrome del Aceite Tóxico Español”, Revista de Antropología Social, 12, 2003, 291-324.

2

otros como los más sospechosos.”6 Lo que ocurre con el conocimiento estadístico en el entorno legal es justamente lo contrario de lo esperado por los feligreses de la iglesia científica: la evidencia estadística acaba pasando de sujeto a objeto del juicio legal, quedando eventualmente confirmada o desconfirmada a posteriori por el resultado de la sentencia judicial que pretendía determinar. Uno de los affaires más reveladores en este sentido fue el “caso Bendectin”, una prolongada controversia judicial que se desarrolló en las Cortes de Apelación y los Tribunales Federales de EE.UU. a lo largo de la década de los 80 en torno a la resolución de las numerosas demandas de responsabilidad por daños producidos por productos tóxicos interpuestas por asociaciones de particulares contra un importante laboratorio farmacéutico (Merrell-Dow) acusado de comercializar un fármaco contra el dolor de cabeza (Bendectin) supuesto causante de malformaciones fetales.7 El problema inicial al que tuvieron que enfrentarse un gran número de jueces y jurados a lo largo de esta controversia científico-legal fue el de establecer una jerarquía probatoria entre los diferentes tipos de evidencias causales aportadas por los estudios toxicológicos (experimentos in vitro e in vivo con animales), farmacológicos (análisis de estructura química de los fármacos), epidemiológicos (estadísticas de efectos teratógenos reales observados en los consumidores del fármaco) y los llamados metaanálisis o re-análisis estadísticos de conjuntos de estudios epidemiológicos. Tras una serie inicial de sentencias “inconsistentes” producidas en los primeros juicios de apelación celebrados durante el período 1983-1986, en la segunda fase del caso, marcada por las sentencias de los casos Lynch (1987) y Richardson (1988), comenzó a hacerse visible una tendencia sentenciadora en favor de los estudios epidemiológicos (y, por tanto en favor de los laboratorios demandados). Tendencia que culminó en la sentencia del caso Brock (1989), donde la Corte Federal de Apelaciones del Quinto Circuito, codificó explícitamente la ‘regla de favorecer la epidemiología’ (‘favour epidemiology rule’) como precedente legal autorizado. Esto es, se estableció de manera consistente la superioridad, en el ámbito de la prueba legal de causalidad, de los datos científicos aportadas por los estudios epidemiológicos sobre cualesquiera otras 6 7

M. DeGroot, S. Fienberg y J. Kadane (eds.), Statistics and the Law, New York, Wiley, 1994, ix, xi G. Edmond y D. Mercer, “Litigation Life: Law-Science Knowledge Construction in (Bendectin) Mass

3

combinaciones de pruebas (toxicológicas, farmacológicas o aquellas aportadas por reanálisis y meta-análisis estadísticos de datos epidemiológicos secundarios). En la tercera fase del caso el nuevo objeto de controversia legal pasó a ser la necesidad de establecer un conjunto de “medios de interpretación adecuados” o criterios estándares para ponderar de forma objetiva y replicable en diferentes contextos judiciales, el contenido probatorio de los informes epidemiológicos presentados los expertos al servicio de los abogados defensores y acusadores. En primer lugar, en la sentencia del caso De Luca de 1990, el tribunal puso por primera vez en cuestión la supuesta unanimidad de la comunidad científica en torno a los criterios de fiabilidad que deben aplicarse para validar los estudios epidemiólogos y constató la ausencia, en las leyes procesales relevantes, de estándares normativos que permitan al juez decidir al respecto de si la revisión por pares y la publicación en revistas profesionales constituyen garantías al respecto. En segundo lugar, en la sentencia Turpin de 1992, el juez ponente ofreció una articulación legal primigénea para varios de los argumentos críticos formuladas por los demandantes contra la fiabilidad del conocimiento epidemiológico.8 El capítulo final de la peripecia judicial del Bendectin fue la famosa sentencia Daubert, emitida en 1993 por la Corte Suprema de EE.UU. Aunque el máximo tribunal federal estadounidense no se pronunció sobre la sustancia del caso sí tuvo que hacerlo sobre un cuestión de procedimiento más fundamental: la de cuáles deberían ser las normas más apropiadas para decidir sobre la admisibilidad de las evidencias expertas que pueden ser presentadas en un juicio. El único gran precedente legal que existía hasta Toxic Tort Litigation”, Social Studies of Science, 30, 2000, 265-316. 8 El tribunal del caso Turpin reconoció que algunas de las reservas planteadas por los demandantes eran dignas de ser tenidas en cuenta. En particular el hecho de que los 35 estudios epidemiológicos presentados por el demandado estaban basados en muestras demasiado pequeñas para probar la ausencia de causación cuenta tenida del carácter infrecuente de los defectos de nacimiento; que los estudios no distinguían adecuadamente entre defectos en las extremidades y defectos de otro tipo; que no controlaban la presencia de factores distorsionadores como los efectos del tabaco o de la ingestión de otros fármacos; que no quedaba tampoco claro si el nivel arbitrario del 0.05 de significación estadística poseía relevancia alguna para propósitos legales y, finalmente, que si se escogían intervalos de confianza más pequeños, podía interpretarse que algunos de los estudios epidemiológicos mostraban relaciones estadísticamente significativas en favor del caso del demandante. La sentencia concluía, por tanto, que “la ciencia de la epidemiología es en el momento presente incapaz de identificar las causas de muchos defectos de nacimiento o de excluir otras muchas causas posibles de los mismos, incluido el Bendectin y muchos otros agentes externos y factores ambientales.” (Turpin v. Merrell Dow Pharmaceuticals, Inc., 959 F.2d

4

entonces en la jurisprudencia federal sobre la cuestión de los estándares de admisibilidad de evidencia experta, era una antigua sentencia de 1923, en el caso Frye contra EE.UU., donde la Corte Suprema tuvo que decidir sobre la pretensión de un acusado de emplear un tipo primitivo de detector de mentiras para tratar de exonerarse de una acusación criminal. En la sentencia Frye la Corte Suprema determinó que en el caso de evidencias científicas “de carácter novedoso”, éstas sólo podrían ser admitidas como pruebas en un juicio legal cuando hubiesen sido previamente aceptadas de forma general como hechos incontrovertidos o técnicas fiables por la comunidad científica relevante. Posteriormente, la resolución de otro caso en 1976 (El Pueblo contra Kelly), dio paso al denominado estándar legal Frye/Kelly para la admisión de evidencia científica novedosa en un juicio, que constaba de tres criterios de evaluación: 1/ que quede establecido, mediante testimonio experto que los métodos científicos empleados en la producción de la evidencia son generalmente aceptados como fiables dentro de la comunidad científica relevante; 2/ que el experto que presente testimonio ante el tribunal esté adecuadamente cualificado como experto para opinar sobre el tema; y 3/ que el ponente de la evidencia científica demuestre específicamente que en el caso en cuestión se emplearon procedimientos científicos correctos para producirla. En la sentencia Daubert, la Corte Suprema de EE.UU. extendió el estándar Frye/Kelly al objeto de establecer la obligación por parte de los tribunales de evaluar el carácter legalmente admisible o no de la evidencia científica presentada por las partes en un juicio, en base a un procedimiento legal objetivo en el que se tengan en cuenta los resultados arrojados por un conjunto de cuatro pruebas de fiabilidad socio-cognitiva de la información científica: 1/ determinar si la teoría o técnica había sido puesta a prueba con anterioridad; 2/ determinar si los resultados del estudio han sido publicados previamente en revistas científicas y sujetos a un procedimiento de revisión por pares; 3/ determinar si se conoce para ellos un margen de error; 1349 (6th Cir. 1992), 1358, “Litigation Life”, 293).

5

y 4/ determinar si la teoría o la técnica se halla generalmente aceptada en la comunidad científica relevante (criterio Frye). El impulso legal hacia la deconstrucción crítica de la evidencia científica sólo puede concretarse, en última instancia, en la forma de exámenes praxeológicos singulares de evidencias científicas singulares. Sea, por ejemplo, el trabajo de deconstrucción praxeológica de la evidencia científica llevado a cabo por los abogados defensores del ex-jugador de football americano y estrella de la televisión O.J. Simpson en la primera vista judicial de la famosa demanda penal (California vs. Orenthal James Simpson, 1995) en la que fue finalmente declarado “no culpable” de la acusación de haber dado muerte a su propia esposa y al amante de ésta.9 La estrategia argumentativa seguida por el equipo de ‘abogados estrella’ contratado por Simpson tenía como objetivo desacreditar de forma convincente la validez legal de la principal pieza de evidencia inculpatoria esgrimida por la acusación contra su defendido: las pruebas de identificación del ADN que asociaban las muestras de sangre tomadas por la policía en la escena del crimen con muestras encontradas en el coche y la casa de O.J. Simpson y aun otras tomadas del sospechoso mismo. En primer lugar los abogados se sirvieron de una serie de testimonios expertos autorizados para demostrar la necesidad de una concepción “empirista” del sentido de la evidencia científica en este campo, reclamando que el diferencial entre la validez teórica y la fiabilidad empírica de una misma técnica de análisis estándar para obtener y contrastar ‘perfiles de ADN’ (DNA profiling) fuese calibrado en relación con la diversidad de situaciones diagnósticas o forenses singulares en las que se requiere su uso.10 En segundo lugar, realizaron un monumental estudio etnográfico11 sobre los 9

M. Lynch, “The Discursive Production of Uncertainty: The OJ Simpson ‘Dream Team’ and the Sociology of Knowledge Machine”, Social Studies of Science, 28, 1998, 829-868. 10 El estudio se centró fundamentalmente en la controversia académica y profesional en torno a la utilidad diferencial de las técnicas conocidas como de reacción en cadena de la polimerasa (PCR en sus siglas inglesas) y de polimorfismos con fragmentos de longitud restringida (RFLP), dado que ambas eran empleadas de forma rutinaria por los laboratorios Cellmark, subcontratados por la fiscalía de la ciudad de Los Ángeles para analizar de las muestras de sangre del presunto asesino y de O.J., el principal sospechoso del caso. 11 La comparación de esta investigación “con nuestros propios esfuerzos profesionales como sociólogos de la ciencia nos dejaría a la altura del betún... En comparación con las condiciones en las que sociólogos y antropólogos llevamos a cabo nuestras etnografías de laboratorio, los abogados de Simpson tuvieron a su disposición una cantidad extraordinaria de recursos financieros, autoridad epistémica, personal de apoyo y experiencia investigadora. [...] obtuvieron el derecho a interrogar testigos, y fueron facultados

6

procedimientos de trabajo más ordinarios y rutinarios (cambiarse de guantes entre muestra y muestra, despejar la mesa de trabajo entre tarea y tarea) llevados a cabo cotidianamente por los oficiales y técnicos de más bajo rango en el Departamento de Policía para llevar a buen término el análisis y la custodia de este tipo particular de muestras. La siguiente transcripción, correspondiente a un fragmento del interrogatorio al que fue sometido uno de los testigos de la acusación (Matheson, jefe de la unidad de serología de la policía de Los Ángeles) por parte de uno de los abogados de la defensa (Blasier), exhibe con gran riqueza de detalles la específica fórmula irónica (vgr. contrastar las prescripciones teóricas de los manuales de procedimiento con sus posibilidades prácticas de aplicación real) adoptada por la defensa como línea argumental para tratar de reducir al absurdo la ‘versión oficial’ de su trabajo ofrecida por los oficiales del departamento forense en sus testimonios iniciales:

14 15 16

Blasier: ¿Se cambia usted de guantes entre cada nuevo elemento a analizar, verdad? Matheson: Como he dicho, es lo que debe hacerse. Pero no recuerdo específicamente haberlo hecho. B.: ¿No es más bien ese un procedimiento que usted usa solamente cuando representantes de la defensa se encuentran presentes? [...]

19

20

M.: Eso fue -En realidad lo hice, y es enteramente posible que sí, lo hiciera, en ese momento estábamos hiper-sensitivos con el tema de la preservación de las muestras. B.: Cuando usted manipula esos elementos en la privacidad de su laboratorio, sin gente de la defensa espiándole, no sigue ese procedimiento, ¿verdad?

por el tribunal para visitar las instalaciones en las que se almacenaban y analizaban las pruebas inculpatorias. Asimismo tuvieron la oportunidad de observar los procedimientos de laboratorio in situ, examinar cintas de video que mostraban a los profesionales manos a la obra, inspeccionar corpus masivos de registros e informes escritos, e incluso llevar a cabo sus propios análisis de laboratorio sobre porciones de la misma evidencia recogida en la escena del crimen.” (“Discursive Production of Uncertainty”, 845).

7

21

22 23

M.: No me cambio de guantes todo el rato o cambio el papel de la mesa todo el rato a menos que vea alguna cosa que lo indique, como que un elemento haya entrado en contacto con el papel o que exista la posibilidad de que las pruebas se hayan mezclado. B.: ¿De modo que sólo le parece importante cambiarse de guantes si usted se da cuenta de que puede haber tocado algo? M.: Si hay una posibilidad de que vayas a contaminarlo, sí, en ese punto debes cambiarte los guantes.

Junto con delatar lo absurdo e irreal de un trabajo rutinario que se describe como susceptible de ser llevado continuamente “en modo huelga de celo”, la segunda parte de la estrategia de interrogatorio de la defensa intentaba sacar a la luz en las respuestas de los diversos detectives, criminalistas y técnicos forenses llamados a declarar su desconocimiento “de las contingencias invisibles de su propia práctica”. Los abogados defensores pretendía mostrar que los técnicos policiales “habrían contribuido a la investigación del doble homicidio sin una comprensión adecuada de los pasos del procedimiento científico que supuestamente gobernaban sus acciones.”12 En algunos momentos fuertes de los interrogatorios, los abogados defensores lograron poner a los testigos en la “incómoda tesitura” de tener que oír o ver “que no conocían (o peor aun, que no podían conocer) lo que realmente estaban haciendo en ese momento.” Más aun, en casos en los que el interrogado apelaba a su “buen juicio profesional” para justificar la adecuación práctica de la laxitud mostrada en la realización de sus cometidos, el interrogatorio podía ser reconducido por el abogado hacia el extremo de hacer reconocer al testigo la posibilidad de que sus prácticas podrían contener detalles invisibles no registrados e incluso imposibles de registrar cuando uno está inmerso “en la escena de su propia práctica”. Y que la sola existencia de tales detalles microscopios sembraba dudas razonables sobre las afirmaciones del testigo en el sentido de haber actuado de forma correcta. Un último ejemplo extremo de las barrocas formas históricas que puede llegar a adoptar el conflicto práctico entre evidencias científicas y pruebas legales lo extraemos

8

de las audiencias públicas del caso Irán-Contra organizadas por el Comité del Senado del EE.UU. a principios de julio de 1987.13 El caso Iran-Contra (bautizado como caso “Irangate” por los medios de comunicación sobre la base de su paralelismo con el escándalo “Watergate”, un affaire de espionaje político que años atrás había acabado con la dimisión del Presidente Richard Nixon) suele ser considerado como uno de los más importantes episodios de corrupción político-militar ocurrido en EE.UU. desde la Segunda Guerra Mundial. El escándalo fue iniciado por una serie de denuncias periodísticas sobre presuntas operaciones ilegales llevadas a cabo entre septiembre y noviembre de 1985 por los servicios secretos americanos. A través de dichas operaciones el Gobierno de EE.UU. habría desviado de los fondos obtenidos por la venta de misiles a Irán (en una operación de intercambio cuyo fin era obtener la liberación de rehenes americanos en poder de la guerrilla libanesa de Abu Nidal) para financiar a la guerrilla contrarrevolucionaria (los llamados “Contras”) que trataba de desestabilizar al régimen sandinista que ostentaba el poder político en Nicaragua. La comisión de investigación -promovida por la mayoría demócrata- no pudo finalmente llegar a probar de forma inequívoca que el Presidente Ronald Reagan hubiera dado su autorización para la realización de estas operaciones o tenido pleno conocimiento de ellas. El minucioso, puntilloso escrutinio legal de los detalles de las prácticas discursivas permitió en este caso llevar a cabo de forma simultánea dos operaciones en apariencia contradictorias: examinar a la luz pública determinados secretos de Estado y negar que esos secretos existan o hayan existido. De entre las varias estrategias de “construcción” histórica (destrucción selectiva de documentos, elaboración de cronologías alternativas, etc.) puestas en marcha anticipadamente (más aun, de hecho, en previsión directa de una eventual investigación pública del tipo de la efectivamente llevada a cabo por la comisión senatorial) por algunos de los principales acusados en el caso para garantizarse una defensa sólida frente a las acusaciones de actividad ilícita, resulta particularmente sugerente para la especificación empírica del tema teórico del

12

“Discursive Production of Uncertainty”, 852. M. Lynch y D. Bogen, The Spectacle of History. Speech, Text and Memory in the Iran-contra Hearings, Londres y Durham, Duke University Press, 1996.

13

9

“secreto a voces”14, la retórica de la “denegacionabilidad plausible” (plausible deniability) empleada por el principal acusado y testigo del caso, el Teniente Coronel Oliver North, del National Security Council de EE.UU. durante su testimonio televisado. Una de las evidencias claves esgrimidas por la acusación en el proceso contra North eran un conjunto de mensajes electrónicos -denominados como “notas del PROF”-, enviados y recibidos dentro de la red de comunicaciones de la Proffesional Office del Consejo de Seguridad Nacional, que era usada también por personal de la Casa Blanca, y que, según se sostuvo en el proceso, fueron recuperados después de que North y otros hubiesen afirmado que habían sido destruidos. “Las notas del PROF fueron consideradas especialmente significativas por el comité investigador porque, de acuerdo con el testimonio de los testimonios del personal del National Security Council, North y sus compañeros habían asumido erróneamente que cuando “borraron” estos mensajes, los eliminaron de forma permanente. Pero posteriormente fueron recuperadas las copias de seguridad de los mensajes “borrados” que habían sido almacenadas en los bancos de memoria de los ordenadores. Considerando que los acusados habían admitidos haber realizado esfuerzos para producir diversos registros documentales bajo la táctica de la “denegación plausible” -esto es, en anticipación de y de hecho como defensa contra investigaciones del tipo de la que se estaba realizando en esos momentos- a las comunicaciones electrónicas que pudieron ser recuperadas se les puso la etiqueta de “mensajes espontáneos” que expresaban indicaciones menos engañosas de las intenciones reales de sus comunicantes. En otras palabras, se pensó que esas comunicaciones revelaban justamente aquello que sus comunicantes se afanaban sistemáticamente en oscurecer cuando registraban otros mensajes “para la posteridad”. El tratamiento en cuestión estaba en sintonía con las teorías clásicas de la credibilidad que adscriben especial significado a aquellas señales, gestos o indicaciones que escapan espontáneamente a los esfuerzos que hacen sus comunicadores para controlar una “impresión” coherente.”15 Estos documentos “rescatados” fueron empleados por la acusación como recursos clave para la formulación de preguntas afinadas y para la ponderación de las respuestas a estas preguntas durante los interrogatorios a los acusados. Sin embargo, el desarrollo de los interrogatorios en los que dichos recursos fueron empleados dejó claro a los acusadores que justamente esa misma posibilidad (que los documentos 14

J-P. Dupuy, “Common Knowledge and Common Sense”, Theory and Decision, 27, 1989, 37-621.

10

aparentemente recuperados in extremis pudieran llegar a ser empleados con fines interrogadores) había sido prevista ya por las personas (los interrogados) que dijeron haberlos creído “completamente eliminados”. 1 2

Fiscal Nields: ¿Consideraba usted la posibilidad de poder llegar a perjudicar al Presidente cuando estaba destruyendo documentos de sus ficheros? North: Consideré la posibilidad de perjudicar al presidente cuando preparaba esos documentos...16

La respuesta de North sugiere que la táctica de la “denegación plausible” no consistía únicamente en una “política interpretativa aplicable a la lectura de documentos sino que se hallaba inscrita en la forma específica misma como se escribían y preservaban las notas y los registros documentales en su oficina.”17 Y sin embargo, aun admitiendo que podría haber dejado un rastro documental falso para que los investigadores lo siguieron, North se cubría las espaldas adoptando una “postura equívoca” respecto a la posibilidad de causar “perjuicio” al Presidente (admitir esta posibilidad no implicaba necesariamente acusar al Presidente de la comisión de un acto reprobable, simplemente se admitía la posibilidad de revelar secretos al enemigo o de subvertir esfuerzos diplomáticos cruciales... en caso de no destruir los documentos). Postura equívoca que la existencia de ese conjunto de pistas falsas le permitía, precisamente, sostener. “Los documentos fueron “falsificados” con un propósito explícito y admitido de anticipar y problematizar una investigación como aquella en la que salían ahora a relucir y en la que se los intentaba emplear como evidencia. Esta fabricación de “documentos de despiste” y los trabajos complementarios de destrucción y redacción fue diseñada como “denegable” hasta en sus detalles más ínfimos, incluso cuando llegó a ser admitida en términos genéricos.”18

15

Lynch y Bogen, The Spectacle of History, 210-211. Morning session, July 7, 1986, Joint Hearings Before the Senate Select Committe on Secret Military Assitance to Iran and the Nicaraguan Opposition and the House Select Committee to Investigate Covert Arms Transactions with Iran, 100th Congresss, 1st Session, H961-34, Testimony of Oliver L. North, Part 1 (Washington, D.C.: U.S. Government Printing Office, 1988), 20, cit. Spectacle of History, 221. 17 Spectacle of History, 221. 18 Spectacle of History, 235. 16

11

II. Falsificar el azar o el crimen perfecto

Uno de los litigios por fraude científico más espectaculares de los últimos años ha sido el llamado “caso Baltimore”, una acusación de falsificación de resultados de investigaciones experimentales formulada en 1988 contra una reputada investigadora en el campo de la inmunología, Tereza Imanishi Kari (en adelante TIK), investigadora principal de un laboratorio de la Escuela de Medicina del Massachussetts Institute of Technology, por una de sus ayudantes postdoctorales, Margaret O’Toole.19 La acusadora sostenía que TIK había “manipulado”, y en algunos casos falsificado abiertamente varios conjuntos de datos experimentales (sobre fenómenos de cambio de estructura inmunológica en cierto tipo de ratones transgénicos) con los que había contribuido a un artículo conjunto con otros tres investigadores del MIT publicado unos años antes, en un número de 1986 la prestigiosa revista de biología molecular Cell. O’Toole añadía también el cargo de información sobre experimentos ficticios, e implicaba como cómplice y encubridor a otro de los coautores del artículo, a la sazón director del laboratorio del MIT donde ambas trabajaban: el Premio Nóbel de Medicina y factotum científico David Baltimore. Según la versión inicial del asunto ofrecida por O’Toole a distintos medios de prensa, sus dudas iniciales sobre la integridad de los cuadernos de laboratorio de TIK, expresadas a través de los cauces internos ordinarios del mundo universitario, no fueron tomadas en serio por sus superiores más directos, y el mismo Baltimore llegó a descalificarla personalmente -llamándola “becaria descontenta”. Finalmente, siempre según la versión de O’Toole, acabó siendo despedida –los administradores del MIT dijeron luego que simplemente le había cumplido su contrato de investigación- y en 1991 consiguió que su versión de los hechos apareciera publicada en el diario The New York Times. La publicación del reportaje periodístico desencadenó un debate público sobre el tema y finalmente las autoridades de EE.UU. acabaron tomando cartas en el asunto a través del inicio de dos investigaciones paralelas: una auspiciada por el 19

D. Kevles, The Baltimore Case. A Trial of Politics, Science and Character, Nueva York, Norton, 1998.

12

congresista de Washington John D. Dingell en su calidad de presidente del subcomité sobre Supervisión e Investigación del Comité sobre Energía y Comercio de la Cámara de Representantes de EE.UU., y otra por la Office of Research Integrity (ORI) posteriormente renominada Office for Scientific Integrity (OSI)-, una agencia pública expresamente creada para investigar casos de fraude científico en el seno del todopoderoso Sistema Nacional de Institutos de Salud, la principal fuente de financiación en EE.UU. de los proyectos de investigación pública en el campo de las ciencias biomédicas. El equipo del congresista Dingell encargó a dos técnicos forenses del Servicio Secreto de EE.UU. especialistas en técnicas de falsificación de documentos el análisis de los libros de registro del laboratorio de TIK. Los peritos compararon la composición del papel y la tinta de fragmentos de impresión recortados de las bandas de lectura de los instrumentos del laboratorio y pegados en los libros de datos de TIK, con muestras de similares provenientes de los cuadernos de otros investigadores del mismo laboratorio, al objeto de averiguar si las fechas de realización de los experimentos reportadas en el artículo de Cell eran auténticas. El informe de esta pericia documentoscópica, en el que se sustentó luego buena parte de la acusación final formulada por la OSI/ORI contra TIK, establecía que se había detectado evidencia indudable de que varios conjuntos de datos habían sido falsificados.20 Entre ellos, el conjunto más importante era el que los investigadores denominaron “datos de la subclonación de junio” (june subcloning data), supuestamente obtenidos a partir de experimentos realizados con anterioridad a la publicación del artículo en Cell, pero que sólo fueron sacados a la luz por TIK con posterioridad, en respuesta a la solicitud de un comité de revisión del MIT para que aclarase ciertas dudas suscitadas por sus hipótesis sobre el posible origen de los cambios inmunológicos efectivamente observados en los ratones transgénicos. En opinión de los peritos forenses, los experimentos de subclonación nunca se hicieron realmente y los “datos de la subclonación de junio” 20

Según el informe de los peritos, las cintas de impresora adheridas en los cuadernos de laboratorio no pudieron haber sido impresas en 1985, el año en el que según TIK se llevaron a cabo los experimentos. Los resultados del análisis estadístico de distintas muestras de impresión establecían que el tipo de papel y de tinta de impresora de los libros de laboratorio de TIK eran muy similares a los de los libros de otros investigadores del mismo laboratorio donde se reportaban datos de experimentos llevados a cabo durante

13

habían sido completamente inventados. Lo que, en definitiva, arrojaba dudas sobre la autenticidad del supuesto descubrimiento de importantes cambios en la estructura inmunológica de los ratones transgénicos publicado por TIK y sus coautores en el artículo de Cell. Entre junio de 1994 y junio 1996 se celebró finalmente algo parecido a una vista oral del caso. Exactamente una década después de la publicación del artículo original en Cell, el Tribunal de Apelaciones del Departamento de Salud y Asuntos Humanos del Gobierno de EE.UU. (una comisión formada autoridades científicas en los campos de biología molecular, la ingeniería genética y la inmunología) tuvo la oportunidad de contrastar las acusaciones presentadas por el equipo legal de la ORI/OSI con las alegaciones formuladas los abogados defensores de TIK, y emitir un juicio final sobre su credibilidad respectiva. Puesto que lo que estaba en duda era la autenticidad de un conjunto de datos experimentales, la crítica de la evidencia forense producida por la parte acusadora se centró en el examen de la “consistencia probabilística” de los datos publicados por la inmunóloga. La dinámica procesal del litigio tuvo como efecto la una explicitación y clarificación sin precedentes de las diferentes concepciones enfrentadas sobre qué sea el azar que manejan los científicos naturales. El procedimiento legal de examen cruzado de los testigos compelía justamente a la defensa de TIK a aplicarse en la deconstrucción teórica, metodológica y tecnológica de la fiabilidad estadística de las diferentes pruebas estándares de “resistencia al azar” (pues ese es el significado del concepto de consistencia probabilística) a las que los peritos forenses de la acusación habían sometido a los datos de TIK. Los peritos de la ORI emplearon diversas técnicas de análisis estadístico de datos para producir algunas de las evidencias inculpatorias más importantes contra TIK. James Mosimann, un bioestadístico contratado como perito por la ORI, diseñó un test estadístico específico con el fin de cuantificar la probabilidad de ocurrencia de uno de los conjuntos de datos experimentales más sospechosos: los que aparecían en las páginas 102 a 104 del cuaderno de laboratorio de TIK. Según estos datos, en las placas de cultivo preparadas por los experimentadores para observar el crecimiento de un tipo 1981 y 1982.

14

de estructuras genéticas híbridas conocidas como ‘hibridomas’ se habrían observado resultados positivos de crecimiento a lo largo de una fila entera de 15 celdas de cultivo contiguas entre sí. Los hibridomas inoculados mediante una pipeta en una célula de cultivo pueden llegar a crecer o no; cuando lo hacen, tienden a mostrar una distribución aleatoria entre las diferentes células de la placa. Según los cálculos de Mosimann la probabilidad de que se produjera crecimiento en 15 celdas de cultivo contiguas era extremadamente baja, hecho que había sido interpretado en el informe de acusación de la OSI como evidencia palpable de que los datos eran falsos. También la alegación de que los datos de la subclonación de junio era falsos se apoyaba en el resultado de una serie de tests estadísticos de consistencia probabilística de los datos practicados por Mosimann. Uno de estos test consistía en una combinación de diferentes versiones de un tipo característico de distribución de probabilidades conocido como ‘distribución de Poisson’ que se emplea convencionalmente para describir diversos comportamientos aleatorios observados en la naturaleza, como la formación de galaxias, la propagación de enfermedades o, más relevante para el caso, dado que TIK había empleado supuestamente un contador de radiaciones para detectar la presencia de hibridomas en las celdas de cultivo, la tasa de emisión de rayos gamma por un material radiactivo. En su testimonio ante la Comisión, Mosimann explicó que “cuando es posible encontrar un modelo mixto de Poisson que permite ajustar bien los datos” ello implica que su originalidad “está fuera de toda duda”, mientras que si no se encuentra ningún ajuste estadístico razonable de este tipo “los datos quedan bajo sospecha”. Y puesto que fue incapaz de encontrar ningún modelo adecuado de este tipo el experto concluyó que los datos de la subclonación de junio “no se correspondían con los producidos por un contador real de radiaciones.”21 El testimonio experto presentado por la defensa de TIK para deconstruir los argumentos de Mosimann fue obra de un tal Terence Speed del que Kevles que, curiosamente, no ofrece en este caso dato alguno sobre su tipo de formación o competencia específica en materia de estadística matemática o biometría, afirma que “había estado a cargo de todos los matemáticos y estadísticos del principal instituto público de investigación científica de su Australia natal y era ahora profesor en la

15

Universidad de California en Berkeley.”22 En su declaración, Speed se aplicó a poner en duda la cientificidad de diferentes elementos teóricos, metodológicos y prácticos de los modelos estadísticos empleados por los forenses al servicio de la ORI para realizar sus pericias. El trabajo de deconstrucción más elaborado fue el que llevó a cabo con las pruebas estadísticas con las que Mosimann decía haber desacreditado la autenticidad de los datos de la subclonación de junio. Según Speed “la fiabilidad del modelo mixto de Poisson empleado por Mosimann era, siendo caritativo, cuestionable.”23 Para empezar, argumentaba, los estadísticos profesionales no suelen, como norma general, emplear los modelos mixtos de Poisson de la forma en que lo hicieron los expertos de la ORI. De hecho, según testificó, no le constaba que ningún modelo de esa clase contuviera nunca más de dos componentes, y mucho menos nueve, como era el caso de aquellos. Por otro lado, los modelos mixtos de Poisson eran “considerablemente flexibles”, pues asignar ponderaciones a sus diversos componentes implicaba un “juicio subjetivo considerable”. “Ajústense los parámetros de la forma adecuada, y podrán cuadrarse o descuadrarse a voluntad los datos bajo escrutinio.”24 Speed contradijo también a Mosimann en relación con el enfoque global con el que el segundo se había aproximado a los datos de TIK, descalificándolo como una muestra de lo que en la jerga estadística se conoce como “husmear entre los datos” (data snooping), esto es, la tendencia, muchas veces inconsciente, que tienen los investigadores a encontrar algo sospechoso y someterlo luego a análisis estadístico no tanto para averiguar si las sospechas iniciales tenían fundamento sino para reforzarlas. “Si alguien nos lo pide, siempre es posible examinar una tabla de números aleatorios y encontrarle algún error.”25 En el lenguaje de la estadística “confirmar una sospecha” sobre la autenticidad de un suceso dado implica mostrar que la probabilidad de que ese suceso haya ocurrido por error/azar es demasiado pequeña. Esta había sido justamente la conclusión a la que habían llegado los peritos de la ORI en su examen de la curiosa racha de 15

21

Baltimore Case, 343-344. Baltimore Case, 345. 23 Baltimore Case, 345. 24 Baltimore Case, 346. 25 Baltimore Case, 347. 22

16

crecimientos de hibridomas consecutivos que mostraban los datos del cuaderno de laboratorio de TIK. Dado que una racha tan peculiar de crecimiento de cultivos resultaba ser un evento harto improbable, la acusación concluyó que los datos se los había sacado la investigadora de la manga y no de la observación de celdas de cultivo auténticas. El problema con este modo de razonamiento, como lo apuntó Speed en su testimonio es que: “cuando tienes que asignar una serie de probabilidades a un patrón de sucesos observados, es necesario que lleves a cabo una serie de correcciones preliminares para tomar en cuenta, en la medida de lo posible, el procedimiento de búsqueda que has empleado para asignarlas... Esto es, tienes que incorporar en tus cálculos el hecho de que algo te parezca inusual.”26 Para desacreditar la validez científica de las evidencias forenses presentadas por la acusación, evidencias sustentadas por la fe en la validez de un concepto normalizado de azar que afirma la preeminencia de lo estructural sobre lo casual, lo que hizo el experto de la defensa no fue otra cosa que invocar el viejo demonio maléfico del azar paretiano o “salvaje”, hipótesis alternativa que básicamente afirma la postura epistemológica contraria: la casualidad nunca está dominada por la causalidad.27 La Comisión resolvió finalmente en favor de TIK, absolviéndola -y junto con ella al profesor Baltimore y a los otros dos coautores del artículo- de todas las acusaciones de fraude formuladas contra ella. Con anterioridad, la otra rama de la investigación del caso, la instrucción judicial promovida por el congresista Dingell, se había cerrando sin llegar a ninguna conclusión, al decidir el fiscal encargado del caso retirar los cargos penales contra TIK.28

26

Cit. Baltimore Case, 348. B. Mandelbrot, “Del azar benigno al azar salvaje”, Investigación y Ciencia, 1996, diciembre, 14-20. 28 Baltimore Case, 317. En su declaración a la prensa, el fiscal adujo que su decisión había sido motivada no por un convencimiento de que la acusada fuera inocente sino por miedo a que durante la celebración de un eventual proceso los jueces y el jurado tuvieran que ser expuestos a un montón de argumentos científicos muy complejos y cargados de sutiles matices, los cuales, según dijo, eran “prácticamente incomprensibles incluso para muchos otros científicos.” (cit. B. Kaye, Science and the Detective. Selected Readings in Forensic Science, Wienheim y Nueva York, VCH, 1995, 327). El prejuicio de la incompetencia técnica de los ciudadanos legos, sin embargo, no sólo es contrario a todo lo que sabemos sobre la conmensurabilidad entre los procedimientos de conocimiento científico y los procedimientos de conocimiento de sentido común, sino que vulnera ante todo la letra y el espíritu de las normas de administración de justicia que supuestamente imperan en los modernos estados de derecho. “El requisito, 27

17

Dos días antes de la celebración, el 4 de mayo de 1989, de la primera audiencia pública, convocada por el Subcomité de Supervisión e Investigación de la Cámara de Representantes de EE.UU. sobre el presunto caso de fraude científico que se convertiría con el tiempo en el affaire Baltimore, Robert E. Pollack, afamado biólogo y decano del college de la Universidad de Columbia, publicó un artículo de opinión sobre el caso en The New York Times bajo el título de “En ciencia, error no significa fraude” [In Science Error Isn’t Fraud], donde sostenía que “publicar errores es parte fundamental del trabajo científico. A los científicos nos encanta demostrar a nuestros colegas que estaban equivocados y, si ellos son igualmente competentes, les encantará demostrarnos a su vez que éramos nosotros los que estábamos equivocados... Si se nos pide que prejuzgemos sobre las causas de los errores, o peor, que digamos que error es indicativo de fraude, entonces no podemos funcionar como científicos.”29 Dos años más tarde, en agosto de 1991, Benardine Healy, Directora del Sistema de Institutos Nacionales de la Salud de EE.UU. entre 1991 y 1993, testificando ante el mismo subcomité, afirmaba que una investigación policial eficiente en la lucha contra el delito científico debe “ser capaz de distinguir el error del fraude, el fallo no intencionado o incluso negligente de la conducta intencionalmente delictiva, y las afirmaciones equivocadas de las tergiversaciones engañosas.”30

III. La teoría de la falsificación experta

En el estudio del fraude científico es particularmente urgente rechazar esa variedad de antropología consoladora según la cual quienes engañan a sus colegas son desviados o bien incompetentes que hacen trabajo de mala calidad y solo buscan hacer

generalmente aceptado de manera implícita como artículo de fe, de que las personas deben ser expertas, o al menos deben estar versadas, en ciencia y medicina antes de dar su opinión sobre estos temas es, después de todo, contrario a los principios básicos de nuestras sociedades democráticas. La democracia es una apuesta: la apuesta de que la conciencia debe estar por encima de la competencia.” (J-M. LévyLeblond, “About Misunderstaindings about Misunderstandings”, Public Understanding of Science, 1, 1992, 17-22, cit. p. 20). 29 Cit. The Baltimore Case, 185. 30 Cit. Baltimore Case, 306.

18

carrera ahorrándose los sacrificios necesarios: la única base estable que permite a largo plazo la pervivencia del fraude en el mundo de la investigación científica es la división social del trabajo de expertizaje crítico. Los falsificadores de hechos científicos se apoyan justamente en la existencia de un conjunto de convenciones teóricas, metodológicas y tecnológicas públicamente validadas para instruir sobre cómo llevar a cabo una investigación científica de calidad aceptable, así como en el carácter no menos publico de estándares ampliamente aceptados de estilo admisible y presentación adecuada en la confección de artículos científicos. De este modo resulta más sencillo colar una investigación ficticia que responda a los cánones estilísticos de la corriente central del programa de investigaciones dominante en un campo científico determinado, que intentar hacer pasar por auténtico un falso de carácter heterodoxo. En contra del perfil de riesgo con el que suele caricaturizarse al defraudador científico potencial (académico desviacionista, rebelde, antidisciplinario, revolucionario frustrado, etc.) lo cierto es que aquellos que realmente tienen éxito en sus intentos de darles gato por liebre a sus colegas, y que por tanto son más propensos a cometer fraude en la representación de hechos científicos, practican por lo general la llamada ciencia normal. “Irónicamente, para tener éxito en la fabricación ficticia de descripciones científicas del mundo, un autor debe conocer a la perfección el tema de investigación en el que trata de perpetrar sus falso para “crear” (mediante descripciones imaginativas) objetos, datos, o fenómenos que sean considerados plausibles por otros expertos en el tema (bien porque respalden teoría convencionales, porque sean estadísticamente probables o porque tengan la apariencia de poder se replicables). La descripción de datos ficticios debe adecuarse a los paradigmas de investigación aceptados tanto en su dimensión objetiva como en su dimensión retórica o se correrá el riesgo de atraer escrutinio adicional.”31 La historiografía de la tradición clásica de erudición crítica en las diferentes disciplinas humanísticas, atribuye un papel fundamental en el desarrollo de la autonomía académica de la teología, la filología, la estética o la crítica historiográfica a

31

M. LaFollette, Stealing into Print. Fraud, Plagiarism and Misconduct in Scientific Publishing, Berkeley, CA, University of California Press, 1992, 43.

19

la complicada relación de competición/cooperación que ha existido siempre entre dos especies sociales de un mismo género antropológico: la autoridad académica y el falsificador informado.32 En está constatación se implica una hipótesis fundamental: el trabajo de codificación académica y diseminación profesional de los criterios de juicio experto en la forma de conocimiento formal de carácter objetivo constituye la condición de posibilidad inexcusable para toda acción exitosa de fraude falsificador, que es en sí misma una forma valiosísima de comprensión y crítica científica de la realidad. En el mundo de las artes plásticas, y muy especialmente la pintura33, los autores de ese tipo de obras fraudulentas aunque perfectamente acabadas que la crítica experta denomina irónicamente falsos perfectos o falsos auténticos, suelen en una gran mayoría de casos apoyarse sobre los resultados de investigaciones emprendidas con el propósito de identificar las propiedades estilísticas elementales que bastarían para detectar aquello que de verdaderamente original o característico hay en la obra de un artista concreto.34 Lo que hacen entonces los falsificadores para mejorar la cualidad de sus pufos es introducir como instrucciones operativas concretas para la realización de su trabajo de imitación las marcas convencionales particulares que la comunidad relevante de expertos ha llegado a aceptar en un momento dado como las huellas dactilares, absolutamente inimitables (o más exactamente, inimitadas) que delatan el estilo original de un autor dado. El trabajo del imitador anticipa y satisface, de una sola tocada, las expectativas perceptivas espontáneas de aquellos mismos guardianes de la autenticidad que habían demarcado previamente el patrón de singularidad estilística a partir del cual se ha construido la obra falsificada. Para el peritaje experto de la autoría o la consistencia estilística de obras literarias suelen emplearse actualmente una clase característica de pruebas estadísticas

32

A. Grafton, Falsarios y críticos. Creatividad e impostura en la tradición occidental, Barcelona, Crítica, 2001. 33 Una aproximación filosófico-analítica clásica a los lenguajes del arte distingue entre variedades autográficas y variedad alográficas de expresión artística. Este criterio de identificación distingue y separa formas continuas no codificables de práctica artística, como la pintura y la escultura, y formas discretas, codificables por tanto, como la música o la literatura (N. Goodman, “Arte y autenticidad”, en Goodman, Los lenguajes del arte, Barcelona, Seix-Barral, 1976, 111-133, 126-27). 34 Veánse S. Radnóti, The Fake. Forgery and Its Place in Art, Landham, NJ, Rowman & Littlefield, 1999, capítulo 4; D. Lowenthal, “Authenticity? The dogma of self-delusion”, en M. Jones (ed.), Why Fakes Matter. Essays on Problems of Authenticity, Londres, British Museum Press, 1992, 184-192.

20

de hipótesis denominadas “tests estilométricos”.35 Las pruebas estilométricas pretenden determinar parámetros cuantitativos estables de conservación y variación de rasgos textuales que supuestamente escaparían a la voluntad consciente del autor (la tasa de aparición de vocablos estadísticamente infrecuentes, la longitud media de las frases, el cociente de vocablos distintos sobre vocablos totales, etc.), y que, por tanto, definirían su estilo.36 La intervención de ese tercero excluido del análisis estilométrico, el falsificador de calidad que recicla los logros investigadores del erudito como tecnología maestra para economizar recursos productivos desestabiliza el cuadro analítico de esta moderna teoría del estilo. “Si ciertas marcas expresan la originalidad de un original más claramente que otras, lo que ocurrirá será que esas marcas podrán ser usadas para generar algo que parezca, y por tanto que pueda ser tomado como, original. Y si esto es cierto, entonces este conjunto de atributos –que puede ser usado para producir un “autor”constituirá la función-autor... [E]l erudito es parte del sistema de producción de autores más que de certificación de las obras de autores ya producidos.”37 Las maniobras de este autor paradójico, el falsificador “de calidad” , fabricante de objetos dobles para los cuales los historiadores del arte han acuñado el oxímoro falso auténtico, desencadenan una interesante dinámica evolutiva de estrategias mutuamente anticipadoras y simetrías reflexivas. El buen falsificador obliga al experto a mejorar sus herramientas de detección y sus métodos de análisis, cargándole con el pesado fardo de tener que incluir, como elemento inexcusable de toda prueba de autenticación, un seguimiento de la trayectoria con frecuencia errática que debió seguir la obra bajo sospecha hasta llegar a sus manos. De estas y otras pesquisas preventivas se nutre la evolución a largo plazo de nuevos instrumentos de certificación y protección antifraude, cada vez más estables, precisos y robustos frente a la modelización estratégica del defraudador. Quienes perpetran de forma informada el engaño y la falsificación pueden ser, entonces, considerados los más importantes aliados de sus colegas críticos 35

E. Irizarry, Informática y literatura, Barcelona, Proyecto A, 1997. “A la personalidad hay que buscarla allá donde el esfuerzo personal es menos intenso.” (Giovanni Morelli, 1874, citado en C. Ginzburg, “Indicios. Raíces de un paradigma de inferencias indiciales”, en Ginzburg, Mitos, emblemas, indicios, Barcelona, Gedisa, 1992, 138-175, p. 140). 37 R. Krauss, “Retaining the Original? The State of the Question”, en Center for Advanced Studies in the Visual Arts, Retaining the Original. Multiple Originals, Copies and Reproductions, National Gallery of 36

21

en la incansable búsqueda conjunta de la autenticidad de las cosas y la verdad de las palabras. “El falsificador crea, en la medida de la calidad de sus productos, una dinámica original: obliga al crítico a mejorar su análisis de los documentos y a ponerlos en relación con sus espacios de circulación pasados y presentes. De estas investigaciones nacen los dispositivos de certificación y verificación que serán a su vez tomados de nuevo en cuenta por los futuros imitadores o falsificadores.”38 El trabajo científico de explicitación teórica, codificación metodológica y harmonización profesional de los modelos cognitivos implícitos en los que se apoyan los inspectores, supervisores y expertos forenses para diseñar e interpretar correctamente el repertorio estándar de controles de calidad aplicados al examen de objetos inciertos (sospechosos, dudosos), es un regalo absolutamente impagable para falsificadores, imitadores y defraudadores que, a través de esta vía, consiguen de manera casi gratuita los costosísimos recursos, herramientas y competencias que necesitan para llevar a cabo su trabajo. En razón de la estricta “economía de la percepción” que hace posible, la modelización matemático-estadística de los criterios heurísticos empleados de manera implícita por los expertos para formular sus juicios, tarea que en una gran mayoría de campos de investigación está considerada el procedimiento más efectivo y racional para llevar a cabo la crítica y la comprensión científica de la realidad, es también condición de posibilidad necesaria (y a veces incluso suficiente) para todas aquellas acciones cuyo propósito expreso es intentar “dar gato por liebre”. En un mundo atestado de consultores en seguridad y agencias anti-fraude de todo pelaje, la articulación formal de modelos comunicables del conocimiento experto abre infinidad de nuevos caminos para quienes pretendan perpetrar con éxito cualquier tipo de fraude. La consecuencia última de este proceso recursivo es que aquellas falsificaciones que incorporan imitaciones de alta calidad de marcadores anti-fraude cuya receta, al estar basada en conocimientos científicos de dominio público, no puede mantenerse del

Art, Washington DC, 1989, 7-11, 11. 38 Experts et faussaires, 204.

22

todo en secreto39, aparecen a los ojos del observador como objetos perturbadoramente aleatorios. Dado que muestran una finísima semejanza de macroestructura en relación con los productos canónicos empleadas como “muestras” o “calibres” por los expertos, los falsos auténticos se caracterizan por una alta propensión a superar con éxito los tests de autenticación más estabilizados - las “pruebas rutinarias”. Si bien el falso auténtico debe poder permitirse también un mínimo de singularidad y diferencia con respecto al canon establecido. Para ganarle la mano al juicio crítico de los expertos en su vertiente más subjetiva e inefable, el falso auténtico debe diferir sustancialmente en la microestructura de su acabado de cualquier otro modelo estándar o patrón de comparación conocido.40 Un falso auténtico no puede por tanto ser obtenido exclusivamente siguiendo una receta publicada sobre el arte del buen copiar. Como en el caso de las sospechas de imitación que levantan aquellas firmas “perfectamente falsificadas” que se parecen demasiado a la firma autógrafa original como para ser consideradas auténticas41, todo buen perito examinador está alerta respecto de aquellos objetos que parecen demasiado “correctos”, en el sentido de demasiado bien ajustados a un marco teórico convencional. Igual de sospechosos serán aquellos objetos que, por haber tomado

39

Para tratar de prevenir la falsificación de documentos oficiales, las agencias internacionales de policía asesoran a un puñado de fabricantes multinacionales de tipos especiales de papel y de tinta (la empresa suiza Sipca, fabricante de tintas ópticamente variables, o la firma inglesa Wiggins Tape, que produce papel de copiado sin carbón) que se emplean para la autenticación de pasaportes, sellos, billetes de banco, recibos de tarjetas legales o formularios legales originales, para que mantengan en secreto la composición química y el proceso fabricación de sus productos. Además algunos resultados de investigación con alto valor industrial en este área suelen mantenerse también en secreto por las mismas razones. Empleando un novedosa técnica de detección conocida como PIXE (Proton Induced X-ray Emission o Emisión de rayos-x inducida por protones) un grupo de investigadores de la Universidad de California en Davis proclamó hace unos haber descubierto la proporción exacta de plomo y cobre que contenía la tinta original empleada por Gutenberg en 1445 para la producción de las primeras bíblias impresas. Los investigadores no publicaron la receta exacta de la tinta usada por Guttenberg “para que no pudiera ser copiada por eventuales falsificadores” (cit. Science and the Detective, 282). 40 En presencia de los resultados positivos previos arrojados por los test convencionales de macroestructura, las pruebas de “sensibilidad” y “tangibilidad” que, bien que imposibles de formalizar por completo, son las únicas capaces de sancionar de forma definitiva la credibilidad cognitiva y estética de un objeto, pueden llegar a interpretar los desfases o errores aparentes en sus detalles, las anomalías estilísticas “carentes de paralelo”, o la rareza de sus motivos como prueba indubitable de mérito creativo y genuina originalidad. 41 “Aunque todas las firmas de una misma persona suelen parecerse entre sí, siempre existen pequeñas diferencias entre ellas. Si una firma sospechosa colocada sobre la firma auténtica en una lámpara resulta absolutamente idéntica, los investigadores sospecharán automáticamente una falsificación.” (D. Owen, Cuarenta casos criminales y como consiguieron resolverse, Taschen, Colonia, 2000, 148).

23

únicamente en consideración el modelo canónico establecido de la práctica que pretenden imitar, le resultan improbablemente probables al ojo clínico. Como la obra de arte original, el falso auténtico es por fuerza un objeto de cálculo que escapa al cálculo, y en definitiva a la intención. Como el objeto verdaderamente auténtico, el objeto auténticamente falsificado debe ser una sorpresa esperada42: al mismo tiempo estándar y raro, previsible y nuevo, ordenado y confuso. El falso auténtico, como el auténtico a secas, debe contener esa mezcla inexacta, no calculable pero físicamente aprenhensible de repetición y diferencia cuya innegable dimensión tangible intenta atrapar de forma operativa la metáfora del “pliegue”, explorada por Leibniz en su concepción barroca original de la técnica del cálculo diferencial.43

IV. La verdad está desnuda

Si consideramos que todo lo que se puede probar objetivamente se puede falsificar efectivamente entonces la objetividad científico-legal, la verdad propiamente forense, verdad pública si alguna vez puede haber una, es la causa eficiente de todo fraude. Si sólo lo que se puede probar públicamente se puede copiar fraudulentamente, entonces bajo el mecanismo de la verdad se esconde siempre la voluntad de la mentira. Al contrario: solamente aquello que no se puede probar, lo “salvajemente aleatorio”,

42

G. Shackle, Epistémica y economía, México DF, Fondo de Cultura Económica, 1976, 438-442. G. Deleuze, El pliegue. Leibniz y el barroco, Barcelona, Paidós, 1989, 27-28. “Leibniz trató de pensar simultáneamente la distinción y la inseparabilidad, dos cosas podían ser realmente distintas sin ser separables. Esta propiedad se halla constantemente tematizada en el pensamiento deleuziano, sobre todo a través de la utilización de la imagen de los objetos fractales... La dinámica del pliegue proporciona una expresión adecuada al movimiento perpétuo de la repetición y de la creación. Por el pliegue la distancia entre dos puntos puede variar al infinito siendo que a la vez permite describir un espacio de variaciones mensurable. El pliegue permite la fabricación de marcas, el cálculo de valores o la definición de funciones manteniendo a la vez presente un resto, un residuo, un delta de variaciones.” (Experts et faussaires, 289-90). El análisis físico de los procedimientos de aplicación de modelos matemáticos de cálculo o “termodinámica del procesamiento de datos” identifica ese resto no computable mediante aproximación mecánica como el ser práctico de eso que llamamos azar (véanse R. Landauer, “Information is Physical”, Physics Today, mayo, 1991, 23-29; B. Latour, “La rebelión de los ángeles de Frege. El fantasma en la máquina de Turing o los tres cuerpos del matemático”, Mundo Científico, septiembre, 1996, 739; “Del azar benigno al azar salvaje”). 43

24

inadmisible por inefable, se halla a prueba de toda falsificación. Impenetrable por las estrategias reflexivas de los fabricantes de “falsos auténticos”, puramente contingente ya que radicalmente histórico es aquello inimitable que no se puede copiar. Los hechos verdaderamente verdaderos son aquellos que no se pueden demostrar de forma pública, objetiva. Y las verdades auténticamente auténticas son justamente aquéllas que no se pueden autenticar de forma pública, objetiva. Y sin embargo “Lo inexpresable, ciertamente, existe. Se muestra, es lo místico.”44 La verdad mística, que nada tiene que ver con la fe religiosa, aquello “de lo que no se puede hablar”, es justamente el tipo de verdad que ha proporcionado, desde siempre, el ultimo refugio para el ejercicio de la libertad, esto es, de lo propiamente humano en un mundo industrial avanzado donde la coordinación de las acciones sociales depende cada vez en mayor medida del empleo de un sistema complejamente interconectado de prótesis tecnológicas cada vez más autónomo en su funcionamiento. En este mundo donde, sin duda afortunadamente, la civilidad objetiva y su correlato, la ciencia social, se hacen cada día más posibles, la preservación de la verdad mística, la convicción que no puede demostrarse mediante experimentos ni estadísticas y que sólo puede mostrarse señalando calladamente el mundo con el dedo, es una tarea cívica tan vulgar como imprescindible.

44

L. Wittgenstein, Tractatus logico-philosophicus, Madrid, Alianza,.1987, § 6.522

25

Apéndices: Objetos de fe A. Obras sagradas son encontradas Siendo como son las disputas religiosas -muy particularmente las cristianas y no digamos ya las católicas- el más perfecto de los ríos revueltos para la ganancia, cuando menos en diversión, de esos traviesos pescadores que son los falsificadores, las declaraciones de autenticidad y las acusaciones de inautenticidad pueden emplearse también, recíprocamente como hilo rojo para navegar a través de las más procelosas y enconadas controversias teológicas. Uno de los más conocidos, reveladores e inquietantes casos históricos de falsificación de calidad se localiza justamente dentro de este mundo, la filología teológica cristiana: el caso de Erasmo de Rotterdam, autor de una conocida falsificación de un texto de San Jerónimo. Una las preocupaciones centrales del programa humanista propuesto por Erasmo para la reforma del pensamiento cristiano era la necesidad de purgar los textos clásicos de los padres de la iglesia de la ingente cantidad de añadidos (spuria) y partes de dudosa autenticidad que los plagaban, mediante un exigente trabajo crítico de revisión erudita y purga editorial que él mismo llevo a sus niveles más altos. En 1530, Erasmo, que estaba considerado como uno de los mayores expertos en la obra de San Cipriano, publicó su cuarta edición de las obras del santo. Al final del volumen Erasmo incluyó como suplemento que no aparecía en las ediciones anteriores, un tratado inédito titulado De duplicy martyrio (De las dos formas del martirio) el cual, según afirmaba el editor en el índice del libro “se descubrió en una biblioteca antigua; quizá sea posible buscar en ella también otras obras valiosas del autor.”45 El texto en cuestión, investido a través de la innegable autoridad académica de Erasmo en obra de autoría original de San Cipriano, alababa las virtudes de los mártires en el sentido tradicional del término, aquellos que morían para ser testigos de la fe; pero a continuación se lanzaba a defender otras formas de vida cristiana -como la vida de aquellos que, deseando morir por su fe, no habían sido llamados a ello- como igualmente loables y tan meritorias como el martirio mismo. San Cipriano parece adoptar con este argumento una posición muy similar a la del propio Erasmo, que era conocido por su desdén para con aquellas concepciones de lo cristiano que equiparaban sufrimiento con virtud. “De duplici martyrio, en definitiva, no es un hallazgo, sino una invención de Erasmo; supone un intento de contar con el apoyo teológico de la Iglesia primitiva a costa de falsificar sus documentos (algo que, según había recalcado repetidas veces, jamás debía hacerse). El mayor estudioso de la patrística en el siglo XVI falsificó una gran obra patrística.”46

Además de las sospechas referidas al contenido estrictamente teológico del texto, según las cuales la peculiar versión de ciertos pasajes de las escrituras que en él se da es muy similar a la que puede encontrarse en los comentarios al Nuevo Testamento escritos por el propio Erasmo, los críticos consideran también bastante 45 46

Falsarios y críticos, 58. Falsarios y críticos, 59.

26

sospechoso el hecho de que el manuscrito original supuestamente encontrado por Erasmo no se conserva en ninguna biblioteca. Finalmente, el latín en el que está escrito es también bastante chocante, sobre todo por la inclusión de numerosos nombres terminados en diminutivo, particularidad estilística que ha sido destacado por los expertos contemporáneos en la obra de Erasmo como uno de las características distintivas de su forma de escritura. En materia de estudio de los modernos procedimientos de peritaje crítico de escritos de naturaleza religiosa nada resulta tan educativo ni tan fascinante como el monumental expediente público que arroja la ya larga controversia investigadora (filológica, arqueológica, teológica, historiográfica, antropológica, politológica, etc.) sobre los llamados “Manuscritos de Qumrán”, más conocidos como los “Rollos del Mar Muerto”. Según puede leerse en el capítulo introductorio de la gran mayoría de manuales de qumranología47, los primeros elementos de este archifamoso corpus fragmentario de literatura bíblica y para-bíblica antigua fueron descubiertos por casualidad entre fines de 1946 y principios de 1947 por tres pastores beduinos del Desierto de Judea en el interior de unas cuevas naturales cercanas al paraje en ruinas conocido como Khirbet Qumrán, sito a unos 13 kilómetros al sur de Jericó, en la zona en la que la altiplanicie desértica desciende hacia la costa noroeste del Mar Muerto. Cuentan también estos cronistas que los Rollos del Mar Muerto habrían sido escritos o, más exactamente, transcritos a finales de la época del Segundo Templo judío, esto es, en algún momento entre el año 170 a.C. y el 68 d.C., por miembros de cierta comunidad religiosa judía de marcado carácter sectario y tendencia apocalíptica. Historiadores contemporáneos han identificado a la secta de Qumrán con los Esenios, uno de los tres grandes partidos religiosos judíos que aparecen mencionados en las crónicas del aplastamiento de las revueltas judías contra Roma redactadas por el historiador judío Flavio Josefo (siglo I d.C.) La controversia dogmática sobre los atributos de Cristo tiene múltiples sus alternos mundanos, como el debate sobre la autenticidad (y por tanto el sentido) de la sábana Santa de Turín. Más interesante, el debate sobre teológico, tan católico él, sobre los atributos de la Virgen María catolicismo, tiene entre sus dobles vulgares un fascinante: la controversia sobre la autenticidad (y, por tanto, el sentido) de las “apariciones” de la Virgen. Uno de los fenómenos empíricos más sólidos (y alucinantes) en materia de documentación de los métodos vulgares específicos que emplea en su trabajo el experto-en-tanto-que-falsificador ha sido de hecho singular y especialmente documentado por la bibliografía disponible en este campo de estudios. A saber: en ciertos casos muy importantes las cosas sólo hablan a los hombres a través de una muy particular comisión experta de portavoces electos: los niños y las niñas. Criaturas visionarias universales, los chavales y las chavalas están, en la cultura católica, específicamente considerados como los únicos testigos y portavoces verdaderamente legítimos de las apariciones de la Virgen María. Pues, vista desde su ángulo más laico (que no menos religioso o, si se quiere, trascendente), las visitas de María a sus hijos consisten, en efecto, en el eternamente renovado trabajo infantil de producción local de la autenticidad religiosa, así como también, aunque no siempre o no necesariamente, pueden participar del eternamente renovado trabajo local (social, sí, 47

P. Davies, G. Brooke y P. Callaway, Los Rollos del Mar Muerto y su mundo, Madrid, Alianza, 2002.

27

social) de producción de la autenticidad infantil.48 B. Artenticidad Uno de los casos más extremos de falsificador exitoso que se conocen es el del pintor holandés Hans Van Meegeren (1889-1947) autor de una serie de famosas falsificaciones atribuidas por los expertos a Vermeer de Delft.49 El falsificador presentó astutamente sus falsos como obras que habrían sido pintadas por Johaness Vermeer en un corto período de tiempo para el cual los expertos en su obra no conocían en aquel entonces ninguna pintura original suya, lo cual, junto con la calidad de las copias, surtió el buscado y consabido efecto doble de engañar a los cancerberos (ese fue el caso del reputado historiador del arte holandés del XVII Abraham Bradius) y convertirlos en cómplices del engaño al comprometer su autoridad académica en la concesión de un certificado de autenticidad para los falsos. Unos años más tarde, al parecer, el propio falsificador confesó motu propio a las autoridades holandesas su fechoría, pero los expertos a quienes había engañado se negaron a conceder crédito a su auto-denuncia. A diferencia de lo ocurrido en un caso más reciente de “falsificador arrepentido”50, demostrar la falsedad de sus falsificaciones acabó convirtiéndose para Van Meegeren en un asunto de vida o muerte: durante la ocupación de Holanda por los Nazis les había vendido sus falsos Vermeers a las autoridades militares alemanas y tras el fin de la guerra fue acusado por un tribunal militar holandés de alta traición a la patria ¡por haberles vendido ilegalmente tesoros artísticos de la nación a los alemanes! Caso de probarse cierto, el delito de alta traición conllevaba la pena de muerte. Contra el testimonio experto de Bradius y otras autoridades en materia de historia de la pintura holandesa del XVII, el falsificador debía convencer al tribunal castrense de que era él el 48

W. Christian, Las Visiones de Ezkioga. La Segunda República y el Reino de Cristo, Barcelona, Ariel, 1997, 250ss., sobre el caso de las apariciones marianas ocurridas en una villa de las montañas de Guipúzcoa a comienzos de la década de 1930; E. Claverie, Les guerres de la Vierge. Une anthropologie des apparitions, París, Gallimard, 2003, 109-194, sobre otro caso de apariciones marianas: el de la llamada “Virgen de Medjugorje, que empezó a aparecerse en 1981 en un pequeño pueblo de mayoría croata sito en la entonces república Yugoeslava de Bosnia-Herzegóvina. 49 The Fake, 21-23. 50 Me refiero al “caso Sokal”, donde también se ha probado la peligrosa eficacia de la estructura lógica de la “doble negación” puesta en acción por los falsos auténticos -aquí un físico matemático que se hace pasar, exitosamente, por sociólogo postmoderno de la ciencia y, tras desvelar él mismo su impostura, consigue de nuevo volver a “hacerse pasar” exitosamente por azote perverso del postmodernismo en ciencias sociales... “Como admite Sokal [en su autodenuncia publicada en la revista Lingua Franca], su artículo en Social Text constituye un engaño intencionado: en él se afirma justamente lo contrario de aquello que el autor cree verdaderamente. En su artículo en Lingua Franca Sokal de nuevo pretende hacernos creer que esta vez sus palabras representan fielmente sus creencias. La mayor parte de los comentarios sobre la broma aceptan las palabras finales de Sokal [en el artículo de Lingua Franca] en el sentido de que el artículo original [en Social Text] era una broma, pero no se pregunta: ¿no estará Sokal, nuevamente, pretendiendo ser quien dice ser?... Sokal -pretendiendo de forma aun más exitosa ser él mismo en el artículo de Lingua Franca- habla con una voz modesta, que se oculta a sí misma, una voz que cualquier analista competente en los trucos retóricos del discurso científico debería reconocer como una parodia; un disfraz retórico para una declaración triunfante. Lo único diferente en este caso es que no hubo un destape irónico posterior para enfado de quienes le tomaron en serio esta segunda vez.” (M. Lynch, “A So-Called ‘Fraud’: Moral Modulations in a Literary Scandal”, History of the Human Sciences, 10, 1997, 9-21, cit. p. 18).

28

verdadero autor de los Vermeers. Van Meegeren fue finalmente absuelto de los cargos iniciales de alta traición pero acabó sentenciado a la pena de un año de prisión por un delito de fraude. De todos modos ya había muerto cuando salió su sentencia. La original investigación detectivesca llevada a cabo por el profesor y crítico de arte John F. Moffit de la Universidad de Nuevo México para establecer la hipótesis del probable origen decimonónico de la más famosa de las esculturas ibéricas, la Dama de Elche, ofrece otro ejemplo espectacular del tipo de estrategias reflexivas comúnmente empleadas por el falsificador de calidad para trasmutar su pastiche en canon, así como de las intervenciones simétricas que le opone el experto crítico en su intento de exponer el tótem arqueológico como muestra de arte menor.51 Según la hipótesis de Moffit, la técnica empleada para la creación de la Dama por su presunto falsificador52 habría sido la “libre adaptación” al gusto de su época (fines del siglo XIX) de los primeros modelos de arte ibérico auténtico de los que se tuvo conocimiento público de tipo visual, notablemente a través de las ilustraciones litográficas publicadas en 1875 en la Revista de archivos, bibliotecas y museos por el arqueólogo Paulino de Savirón de la llamada “Damita 7.707”, una escultura íbera encontrada en el yacimiento del Cerro de los Santos veinte años antes del “hallazgo”, en 1897, de La Dama de Elche en el yacimiento de La Alcudia.53 La denuncia de falsificación formulada por el críticodetective se apoya, por su parte, en otra original contra-estrategia deconstructiva que consiste en incorporar los resultados de la investigación académica más reciente en el terreno del arte moderno y contemporáneo al arsenal de herramientas de análisis del perito autenticador de arte ibérico antiguo. A través del gamusino de la Dama de Elche, expuesta en el Museo del Louvre desde 1898, el crítico pretende hacer ver la influencia bien real que ejerció la escultura simbolista española de finales del siglo XIX tanto sobre la técnica de la taille directe en piedra con la que el escultor modernista por excelencia, el rumano Constantin Brancusi, propuso, en obras como El beso de Craiova (1907-8), operar un regreso contemporáneo a los orígenes más primitivos del arte escultórico en sus fuentes ibéricas, como sobre las primeras obras cubistas de Picasso (como el Retrato de Gertrude Stein, de 1905-6 o Las señoritas de Avignon, pintados en 1907). “Es irónico que la importancia artística del antiguo arte ibérico parezca menos misteriosa en nuestro siglo XX que con frecuencia es brutalmente primitivizante. A lo largo del importante período de transición en que se produjo el primer arte modernista, o sea, a partir de 1906, cuando vemos (con percepción tardía) una estética fauvista-impresionista que conduce inexorablemente hacia los experimentos cubistas más tempranos, el arte ibérico parece haber sido un factor estético importante, pero, hasta ahora, bastante inadvertido. Su efecto en la técnica de taille directe de Brancusi es, a mi modo de ver, indudable. Y yo diría que la presencia de la probablemente falsa Dama de Elche en el Louvre durante cuarenta y tres años constituyó un importante factor en el arte de Pablo Picasso. Ya sea “real”, o sólo magníficamente falsa, lo cierto es que la Dama de Elche es y debería seguir siendo, sin duda objeto de gran importancia artística. En realidad, una vez aceptada como “falsa” su verdadero sentido contextual se vuelve

51

J. Moffit, El caso de La Dama de Elche. Historia de una falsificación, Barcelona, Destino, 1995. Según Moffit las sospechas más fundadas sobre la identidad del “Maestro de la Dama” recaen en el escultor valenciano y afamado falsificador de tallas antiguas Francisco Pallás y Puig, nacido en 1859 en Cuart de Poblet y muerto en Valencia en 1926 (El Caso de La Dama de Elche, 207). 53 El Caso de La Dama de Elche, 225-32. 52

29

mucho más claro.”54

La impotencia que sufren las cifras empleadas en el mundo industrial para certificar la calidad y la fiabilidad cuando intentan dominar con su fuerza bruta la proliferación de tipos débiles de información cualitativa (pistas, síntomas, huellas, trazos, vestigios, etc.) es compartida también por las variedades más prestigiosas de pruebas forenses estandarizadas, desde los test de identidad llevados a cabo mediante comparación de huellas dactilares o comparación de cadenas de ADN, a la pruebas de datación de objetos mediante carbono-14 o índices de termoluminescencia.55 Incluso los hechos científicos más largamente estabilizados y los protocolos de experimentación más endurecidos por la presión de sucesivos estratos de difusión académica, profesional y empresarial, pueden ser puestos en duda, criticados y rechazados cuando lo que está en juego son asuntos tan peliagudos como conocer la edad exacta de la famosa sábana santa de Turín, identificar la verdadera caligrafía del Capitán Dreyfus o probar que las muestras de sangre extraídas a la estrella del fútbol americano y la televisión O.J. Simpson coinciden con las pistas de sangre encontradas en la escena del crimen donde se hallaron los cadáveres de su mujer y el amante de esta.56 C. Hechos científicos hechos Los historiadores han mostrado la influencia sucesiva de diversos factores materiales tecnológicos, económicos y simbólicos en el proceso de conformación histórica de la institución moderna de la autoría literaria. En primer lugar, la difusión de la imprenta.57 El segundo factor que ha sido destacado por los estudiosos fue la controversia que, a lo largo del tercio central del siglo XVIII, enfrentó a soberanos europeos celosos de su monopolio tradicional sobre los sistemas de comunicación 54

El caso de La Dama de Elche, 298-299. Para un análisis de la controversia tecnocientífica y legal sobre los métodos de autentificación de personas mediante contraste de huellas dactilares véase S. Cole, “What Counts for Identity? The Historical Origins of the Methodology of Latent Fingerprint Identification”, Science in Context, 12, 1999, 139-172). Para el análisis de secuencias de ADN, vid. S. Halfon, “Collecting, Testing and Convincing: Forensic DNA Experts in the Courts”, Social Studies of Science, 28, 1998, 801-828. 56 Sobre la tolerancia interpretativa de los procedimientos estándares de datación de objetos mediante pruebas de termoluminescencia y análisis del carbono 14 en el contexto de la controversia sobre la autenticidad de la Sábana Santa de Turín cf. Experts et faussaires, 193-194, 219-222. Sobre el análisis computacional de la escritura autográfica de documentos presuntamente falsificados en el asunto Dreyfus véase J-M. Fournier, “Approche analogique d’une expertise en écriture: un example concernant l’affaire Dreyfus”, Le Courier du CNRS, 16, 1975. Para el rechazo de los resultados de las pruebas de identificación mediante contraste de secuencias de ADN en el caso de O.J. Simpson véase “Discursive Production of Uncertainty”. 57 “El impulso de emborronar escritos existía tanto en los días de Juvenal como en los de Petrarca, pero el deseo de ver la obra de uno impresa (fijada para siempre con nuestro nombre en fichas y antologías) es distinto al deseo de escribir líneas que podrían no ser fijadas nunca de una forma permanente, podrían perderse para siempre, ser alteradas al copiarse o –si en verdad eran memorables- ser transmitidas oralmente y atribuidas en último término a “autor anónimo”. Hasta que se hizo posible distinguir entre componer un poema y recitarlo, o escribir un libro y copiarlo; hasta que los libros pudieron ser clasificados por algo más que su incipit, no se pudo jugar el moderno juego de libros y autores.” (E. Eisenstein, La revolución de la imprenta en la Edad Moderna Europea, Madrid, Akal 1994, 89). 55

30

pública contra gremios de libreros artesanos en plena revolución empresarial que abanderaban la libertad de expresión y los derechos de los autores como el particular caballo de Troya de una nueva lógica económica y política.58 En tercer lugar, los historiadores de las doctrinas filosófico-jurídicas del derecho de propiedad intelectual ha llamado la atención sobre la ironía de que las leyes de derechos de autor sirvieron originalmente, en el momento y el lugar de sus primeras formulaciones sistemáticas (en Francia y Alemania a principios del siglo XIX), para cristalizar de manera definitiva esa misma construcción filosófica, ética y estética, que hoy las apresa.59 Pues, en efecto, la enseñanza más extraordinaria de toda esta historia, ciertamente, es el hecho de que el discurso romántico sobre la autoría artística y literaria, la concepción mistificadora del autor literario como “creador”, sujeto socialmente aislado e inexplicablemente dotado de cualidades intelectuales a las que no cabe atribuir un origen social, hunde sus raíces en esos mismos cambios materiales que su rechazo cultural contribuirá paradójicamente a solidificar. La emergencia histórica de un sistema elaborado de justificación discursiva para dotar de sentido a la hipótesis del “autor-originador” parece haber sido el producto de la progresiva de mecanización, mercantilización y juridización del trabajo intelectual: la teoría del autor como hipótesis de explicación cultural habría surgido de forma simultánea con el establecimiento de un conjunto de condiciones económicas y sociales de posibilidad que desaprueban dicha hipótesis en la práctica. La manifestación más acabada de la paradoja del autor literario es la institución de la autoría científica.60 58

M. Rose, Authors and Owners. The Invention of Copyright, Cambridge, MA, Harvard University Press, 1993, 67-91. Lejos de reducirse a una mera extensión analógica del derecho individual de propiedad sobre producto del trabajo intelectual, el origen de la institución de la “propiedad literaria” durante el siglo XVIII parece haber sido consecuencia de un proceso radicalmente político: la defensa de los privilegios reales de librería que otorgaban a los libreros agraciados (los de las grandes capitales europeas como París y Londres) un derecho exclusivo sobre un título u obra. Al igual que ocurriera con la imprenta, la extensión a gran escala de las relaciones mercantiles en el ámbito de la producción y el comercio libresco tuvo como consecuencia harto contradictoria el reforzamiento de la naciente ideología romántica del autor como causa incausada y depósito metafísico de originalidad. “En la segunda mitad del siglo XVIII, se constituye una relación algo paradójica entre el deseo de la profesionalización de la actividad literaria (la cual debe incluir una remuneración directa que permite a los escritores vivir de su pluma) y la autorrepresentación de los autores en una ideología del genio propio, fundada en la autonomía radical de la obra de arte y en el desinterés del gesto creador. Por un lado, la obra poética o filosófica se identifica con un bien negociable, dotado de un “valor comercial” (como escribe Diderot) que, en consecuencia, puede ser el objeto de contratos y de equivalencias monetarias. Por el otro, es considerada como el producto de una actividad libre e inspirada, transformada por su sola necesidad interna. Por consiguiente, el desplazamiento del patronazgo al mercado... es acompañada por una mutación, en apariencia contradictoria, de la ideología de la escritura definida por la urgencia de su potencia creadora” (R. Chartier, El orden de los libros. Lectores, autores, bibliotecas en Europa entre los siglos XIV y XVIII, Barcelona, Gedisa, 1996, 50-51). 59 C. Hesse, “Enlightment Epistemology and the Laws of Authorship in Revolutionary France, 1777-1793”, Representations, 30, 1990, 109-137; M. Price y M. Pollack, “The Author in Copyright: Notes for the Literary Critic”, en M. Woodmansee y P. Jaszi (eds.), The Construction of Authorship, Durham, Duke University Press, 1994, 448-449, 303-326. 60 “Existe una gran similaridad entre el empeño actual por conjuntar las nociones de autoría y de responsabilidad científica y las antiguas definiciones pre-mercantiles de la autoría intelectual. Con anterioridad a la emergencia de la figura del intelectual propietario a fines del siglo XVII y principios del XVIII, el autor era definido por estado, el príncipe o la iglesia como aquel individuo responsable del contenido y la publicación de un texto dado. El autor no era visto como un creador cuyas obras debían ser

31

La ciencia da con frecuencia la impresión de ser una empresa anti-histórica: el científico exitoso cambia la historia de la ciencia. Lo que significa que se las arregla para obligar a aquellos colegas y discípulos que acabarán inscribiendo sus carreras investigadoras dentro del camino histórico abierto por el éxito de sus experimentos a tratar, en sus propios trabajos, la invención de aquel como si se tratase de un descubrimiento que cualquier otra persona “en su lugar” podía haber hecho.61 El autor científico debe adoptar el tono moral del “testigo modesto”, una persona sin voz propia que es hablada por la Naturaleza o la Sociedad. La producción de “afirmaciones de hecho” es inseparable de la producción de la “altura moral” de su productor: de la buena fe de aquel que comunica, sin traicionarlos, los mensajes que se le escapan a la naturaleza a través de los altavoces que le pone el laboratorio. “El objetivo de la tecnología literaria de [Robert] Boyle era asegurar a sus lectores de que el autor del texto era el tipo de persona en cuya palabra podía confiarse. Tuvo por tanto que encontrar los medios para hacer visible en sus textos los atributos aceptables de un hombre de buena fe. Una de las técnicas más características en este sentido era la de informar de experimentos fallidos. Un hombre que es capaz de informar sobre el fracaso de sus experimentos es un hombre cuya objetividad no puede estar distorsionada por sus intereses. Él despliegue literario de un cierto tipo de moralidad constituía así una de las técnicas esenciales en la fabricación de una cuestión de hecho. Un hombre cuyas narraciones pudieran ser acreditadas como espejos de la realidad habría de ser un hombre modesto; sus informes deben hacer visible la modestia. [...] El “estilo desnudo de escritura” de Boyle, sus profesiones y muestras de humildad y sus exhibiciones de inocencia teórica, se complementaban entre sí en el establecimiento y la protección de las cuestiones de hecho. Servían para retratar al autor como observador desinteresado y a sus relatos como espejos no distorsionados de la naturaleza. Un autor tal debía ofrecer todos los signos de un hombre cuyo testimonio era fiable. De suerte que sus textos pudieran ser creíbles y el número de testigos de sus narrativas experimentales pudiera ser multiplicado indefinidamente.”62

El rasgo distintivo de la cualidad de la “autoría original”, en la forma en que se predica de un hecho científico aceptado, consiste en que dicha autoría original debe ser pérdida de vista una vez que la afirmación proferida ha tenido éxito en ser aceptada como el descubrimiento de un hecho científico. El autor científico es, pues, un sujeto que llega a “convencer a sus lectores-colegas del hecho de que él no es realmente el ‘autor’ de aquello que presenta, sino que se ha visto obligado a considerarlo como algo impuesto, del mismo modo que se le hubiera impuesto a cualquier otra persona en las mismas condiciones de experimentación, observación o formalización.”63 Para reclamar de forma legítima el estatus de autoridad científica, el investigador se ve forzado, protegidas de la piratería, sino como la persona a cuya puerta habría de llamar la policía si el tal texto era considerado subversivo o herético... Hoy en día, si los científicos publican afirmaciones dudosas, no son acusados de lesa majestad contra el regidor absoluto o de subvertir el control absoluto de la iglesia sobre las doctrinas teológicas, pero son declarados responsables de atentar contra algo igualmente absoluto: la verdad.” (M. Biagioli, “The Instability of Authorship: Credit and Responsibility in Contemporary Biomedicie”, FASEB Journal, 12, 1998, 3-16, 3). 61 “Estamos acostumbrados a pensar que “si Beethoven hubiera nacido muerto, sus sinfonías no habrían visto la luz, pero en el caso de que Newton hubiese muerto a la edad de quince años, seguramente alguien en su lugar hubiera...” (I. Stengers, “Sciences: qui est l’auteur?”, Surfaces, 2, 1996, 6-31, 17). 62 S. Shapin y S. Schaffer, Leviathan and the Air-Pump, Princeton, NJ, Princeton University Press, 1985, 65, 69. 63 “Sciences: qui est l’auteur?”, 14.

32

curiosamente, a convencer a sus colegas de que no usen esa ambición suya (el anhelo de autoría) como arma contra él. La invención moderna de la forma de vida experimental es pues inseparable de la invención de la autoría científica como institución moral absolutamente esquizofrénica que permite tatuar la marca de la autoría sobre los individuos y al mismo tiempo borrar las huellas que dejan los individuos sobre los hechos. De suerte que, cuando el científico no logra convencer a sus colegas de que él es realmente el autor de su trabajo, en el sentido de que ha tenido éxito en su tarea de constituir a la Naturaleza en la autoridad garante del significado científico de su investigación, es señalado paradójicamente por su comunidad de pares como el autor voluntario de sus proposiciones. Sus pretendidos “descubrimientos” son entonces puestos entre comillas, en duda, y eventualmente rechazados, calificados como “no científicos”, denunciados como “ficciones”, esto es, como algo fabricado por el hombre, falsificado luego falso.64 Una vez rechazada su pretensión a la autoría científica, como si dijéramos, “por exceso”, el investigador en cuestión puede ser reprendido por haber cometido un error involuntario en el manejo de su material experimental en la realización de sus cálculos o, peor, ser acusado de haber actuado con mala fe. Nos encontramos entonces ante una denuncia de fraude científico. La afloración de denuncias indignadas de casos de plagio y fraude en las obras científicas es una constante a lo largo de la historia de las ciencias modernas. Sobre todo de las ciencias naturales. De hecho el fenómeno de la perversión de la originalidad científica no ha hecho sino exacerbarse en el marco del sistema contemporáneo de publicación basado en revisión por pares. El “robo” de ideas, la invención de pruebas, el maquillaje de datos, y toda la batería de trampas y zancadillas editoriales que promueve la loca carrera competitiva por pasar el primero por la imprenta o por la oficina de patentes: éste es el tipo característico de “impostura intelectual” que produce la empresarialización rampante de la actividad investigadora en buen número de disciplinas científicas.65

64

“En nuestra cultura, decir que el conocimiento es artificial y convencional es tanto como decir que no es al fin y al cabo conocimiento auténtico. Esta disposición general explica el hecho de que aquellos ejercicios académicos aplicados a desvelar y exponer las bases convencionales del conocimiento, como los llevados a cabo por Wittgenstein, son interpretados como otros tantos actos de denuncia o menosprecio. En la vida cotidiana, nosotros mismos quitamos importancia a las aseveraciones de los demás intentando mostrar su naturaleza construida o sus fundamentos convencionales. Tales prácticas tienen sentido dentro de un juego de lenguaje particular. Un juego... en el que, por así decirlo, no es la agencia humana (individual o colectiva) quien responde del conocimiento logrado, sino la realidad misma.” (Leviathan and the Air-Pump, 150). 65 “Las empresas invierten billones de dólares en investigación fundamental que aun no puede ser aplicada sobre superconductividad y biotecnología, anticipando un beneficio para estas inversiones. Las universidades comienzan ya a considerar las patentes como una de sus principales fuentes de ingresos. En un clima de negocios tal, el trozo de información más arcano puede ser considerado valiosísimo cuando quien lo posee es un competidor. Este cambio en la percepción del valor de la investigación afecta tanto a la comunicación formal como a la comunicación informal entre los científicos. Colegas del mismo laboratorio que hace diez años hablaban sin tapujos por los pasillos afirman ahora que tienen que describirse sus investigaciones en proceso mediante vaguedades y eufemismos para no revelar de forma inadvertida información con valor comercial a sus competidores. Ser el primero en publicar en una revista determina ya no condiciona sólo la prioridad y el prestigio científico sino que ayuda también a reclamar sabrosísimos derechos de propiedad intelectual.” (Stealing into Print, 28).

33

La ocurrencia de un caso de fraude en el proceso de la comunicación científica ha sido definida como una “representación falsa” de experimentos o datos llevada a cabo por el autor de un artículo científico (o, en su caso, por el editor o el revisor de una revista) con el fin de “obtener ventajas inmerecidas o de dañar deliberadamente los derechos o los intereses de otra persona o grupo.”66 El plagio, la falsedad documental y, sobre todo, la “invención” de datos son los tres tipos característicos de “comportamiento inmoral” más frecuentemente observados en la autoría de artículos científicos.67 Más allá de las explicaciones economicistas del fraude científico en términos de los beneficios (en forma de mejores puestos y salarios investigadores) perseguidos por los investigadores que tratan de colar en imprenta datos fraudulentos, lo que ponen de manifiesto los casos más importantes de fraude en la publicación científica destapados durante las década de 1990 es el conflicto entre la larga marcha histórica por autonomía intelectual y el principio democrático fundamental de la responsabilidad pública de los científicos.68 Las controversias científicas son el primer lugar donde ponerse a buscar pistas sobre como se traza en la práctica la fina línea que separa la excelencia del delito en la investigación científica. Las denuncias, veladas o explícitas, de fraude son, en efecto, uno de los lugares comunes de las estrategias argumentativas desplegadas por la parte acusadora en toda controversia científica prolongada. Así, por ejemplo, es típico de los argumentos esgrimidos contra aquellos investigadores que sostienen teorías científicas innovadoras el incluir acusaciones de conducta anti-científica o fraudulenta.69 Las

66

Stealing into Print, 41. También son muy comunes los llamados “fraudes de autoría científica”, que consisten en la tergiversación de la autoría real de un artículo, cometida bien al omitir en la publicación el nombre de uno de los autores que contribuyó realmente a su producción, bien, como en la autoría llamada “honorífica”, de amplia difusión en las ciencias biomédicas, al incluir el nombre de un autor que no contribuyó realmente a la producción del artículo en ninguna de sus fases. Una de las medidas propuestas para combatir el fraude específico cometido contra las convenciones de autoría de artículos científicos proponía, en primer lugar, sustituir el término ‘autor’ por el de ‘contribuyente’ (contributor). Los artículos publicados deberían así incluir una lista al margen con todos sus contribuyentes y una nota al pié en la que se describiera la naturaleza de las contribuciones específicas de cada uno (diseño de métodos experimentales, calibración de instrumentos, análisis estadístico de los datos, búsquedas bibliográficas, redacción final, etc.) Como medida complementaría se proponía acuñar el título de ‘garante’ (guarantor) para distinguir a aquellos de entre los contribuyentes al artículo que estuvieran más familiarizados con los aspectos de conjunto del proyecto. Los garantes serían entonces quienes deberían hacerse cargo de responder a todas las cuestiones suscitadas por el proceso de publicación, tarea encomendada en el sistema actual de publicación científica a los llamados “autores principales” de un artículo (“Instability of Authorship”, 13, n. 2). 68 Stealing into Print, 29. 69 H. Collins y T. Pinch, El Golem. Lo que todos deberíamos saber acerca de la ciencia, Barcelona, Crítica, 1996, que examinan, entre otras, la controversia llamada “de la transferencia química de memoria”, desatada tras los informes sobre una serie de experimentos con lombrices y ratas llevados a cabo entre las décadas de 1950-60 por los psicólogos estadounidenses James V. McConell and Georges Ungar, o el caso de la “fusión fría”, una pugna feroz entre las academias de las ciencias físicas y las ciencias químicas, provocada por el anuncio de dos químicos de la Universidad de Utah, Stanley Pons y Martin Feischmann que, en una controvertida conferencia de prensa ofrecida en 1989, afirmaron haber conseguido producir experimentalmente un fenómeno de fusión nuclear por métodos exclusivamente químicos. 67

34

reacciones negativas a la presentación pública de resultados experimentales que respaldan la posición más heterodoxas de cuantas compiten en la resolución de una controversia científica bien delimitada suele también adoptar la forma de acusaciones de fraude o manipulación de datos.70

D. Dinero clónico La exposición más elegante que conozco de la hipótesis de la naturaleza politeísta de la fe en el dinero, se encuentra enterrada en un oscuro artículo econométrico sobre las causas del crash bursátil de octubre de 1987, publicado en 1988 en el Journal of Business de la Universidad de Chicago.71 Partiendo de un ejercicio harto convencional de modelización matemática de los parámetros operativos de liquidez o “velocidad transaccional” que emergen a largo plazo en el seno de una sencilla estructura prototípica de mercado, el economista analítico entrevé la posibilidad de que pequeños fallos en el tratamiento subjetivo de la información económica (precios y cantidades) que produce el funcionamiento ordinario del mercado, ocasionen costes no despreciables de interaccción-transacción entre los agentes y, finalmente, acuerdos contractuales peligrosamente incompletos. La relación entre errores de información aleatorios y competencia imperfecta traduce mecánicamente el fenómeno institucional básico de la economía de mercado: el carácter indeterminado del estatuto legal de la moneda fiduciaria. Otra manera de formular el argumento anterior: la norma exclusivamente ingenieril de cualificación de productos que domina en la industria financiera, donde hablar de la calidad de un instrumento de inversión equivale a trazar su perfil numérico de riesgo-rentabilidad, esto es, a calcular un conjunto de medidas de varianza estadística de los de precios, permite formular de un modo absolutamente prosaico -¿cuanto dinero cuesta replicar, llevando a cabo operaciones de mercado alternativas, su perfil de riesgorendimiento?- la cuestión fundamental de la naturaleza auténtica o falsificada, original o derivada de un título financiero. El dinero falso es el enemigo más peligroso del dinero legal. El hecho de que los billetes falsos y los activos de inversión ficticios logren superar, una tras otra, las diferentes pruebas convencionales de autenticación, desde los controles rutinarios con máquinas de rayos ultravioletas que usan los comerciantes minoristas a las contrapruebas de fiabilidad estadística (backtesting) que emplean los cuerpos nacionales de inspección bancaria72, supone una suerte de denuncia práctica de la falsa pretensión de autenticidad del así llamado “dinero auténtico”. Y a pesar del enorme esfuerzo económico y tecnológico de las agencias de seguridad nacionales e internacionales para impedir la falsificación monetaria, enormes masas de riqueza de pega viajan velozmente alrededor del mundo, veinticuatro horas del día, siete días a las semana, sin ser detectadas. 70

El Golem, 30, 89; “Instability of Authorship”, 9. S.J. Grossman, “Un análisis de las implicaciones de las estrategias dinámicas de cobertura y 'program trading' sobre la volatilidad del precio de los futuros y de las acciones”, Información Comercial Española, 1990, 688, 141-158. 72 A.J. Izquierdo, “Modelos estadísticos del riesgo y riesgo de los modelos estadísticos”, Empiria, 3, 2000, 101-119. 71

35

La consecuencia teórica más profunda de la proliferación de estos proyectos definitivamente críticos de ataque falsificador y fraude reflexivo dirigidos contra la institución de la moneda legal es el incumplimiento reiterado de la profecía no menos perseverante de los economistas monetarios de que llegaremos en algún momento a contar con medios de pago completamente “inmateriales”.73 Efectivamente, al elevar los costes de protección anti-fraude del dinero legal, la presencia de una población umbral74 mundial de falsificadores de dinero, crédito y valores de inversión impone un límite real a la utopía de un mundo monetario estrictamente informacional de flujos electrónicos de pagos.75 Mientras que el pensamiento económico ortodoxamente monetarista considera que la manufactura y puesta en circulación legal de nuevas unidades de cuenta es realmente el único coste (fijo) relevante en el que incurre el uso social de dinero fiduciario (esto es, supuestamente, sin valor intrínseco alguno), el coste económico (variable) verdaderamente importante de usar dinero fiduciario, en un mundo poblado por falsificadores “de calidad” (véase supra para la explicación de este juego de palabras) es el que impone la mejora de la calidad y la seguridad de la masa total existente de lo que los macroeconomistas monetarios, queriendo hacer una gracia, llaman los ALPES, los Activos Líquidos en Manos del Público.76 Mientras que en el mundo en el que se mueven los cuerpos funcionariales de inspección bancaria, los procedimientos de lucha contra el fraude monetario implican procedimientos homologados de auditoría de riesgos crediticios o bien de auditoría de sistemas internos de control de riesgos crediticios, el trabajo de autenticación de la moneda circulante se lleva a cabo mediante la incorporación sucesiva de nuevos materiales y tecnologías de detección dentro del objeto documental mismo al que se intenta proteger contra las fuerzas renovadas de métodos de falsificación. Algunos teóricos literarios postmodernos utilizan la metáfora del “prestamista de último recurso” (lender of last resort), alguien que garantizaría la autoridad, la autenticidad, la realidad última que el lector confiere al texto, y por tanto a su autor, 73

La resilencia histórica de los falsificadores daría así la razón al sociólogo alemán Georg Simmel que en su obra Filosofía del dinero, publicado en 1900, sostenía que “el dinero no puede llegar a desprenderse de un residuo de valor material, no exactamente por razones inherentes, sino en razón de ciertos defectos de la técnica económica... La eliminación del valor intrínseco de la moneda es imposible.” (G. Simmel, The Philosophy of Money [1900], Londres, Routledge & Kegan Paul, 1978, 162). 74 M. Granovetter, “Modelos de umbral de la acción colectiva”, Zona Abierta, 54/55, 1990, 137-166. 75 D. Martin y F. Weingarten, “The Less-Cash/Less-Check Society: Banking in the Information Age”, en E. H. Solomon (ed.), Electronic Money Flows. The Molding of a New Financial Era, Boston, Kluwer, 1991, 187-215. 76 La fabricación de la nueva masa de billetes y monedas puesta en circulación en 1991 por el Bundesbank, el Banco Central Estatal de la República Federal de Alemania con motivo de la reunificación monetaria entre Alemania Occidental y Alemania Oriental, tuvo un coste aproximado de 330 millones de marcos alemanes (D. Marsh, El Bundesbank. El banco que gobierna Europa, Madrid, Celeste, 1994, 126). En el año 2000, el Banco de España gastó 137,2 millones de euros en la fabricación de 1.924 millones de unidades de los distintos tipos de billetes de euro, la moneda europea que sustituyó ese año a la peseta, por un valor facial total de 68.450 millones de euros (diario EL PAIS, suplemento NEGOCIOS, domingo 8/10/2000, p. 25). Las cifras anteriores palidecen ante el coste que supuso la introducción a principios de la década de los 90 de un nuevo dispositivo anti-falsificación por parte del Banco de Canadá en sus billetes de curso legal, una tira metálica de zirconita y óxido de silicio que adopta un color diferente vista a diferentes ángulos. La incorporación efectiva de la tira de zirconita en los billetes canadienses se tradujo en gasto suplementario de 2,5 dólares por cada nuevo billete producido, Science and the Detective, 287.

36

para dar cuenta de las consecuencias de estrategias narrativas de intención paradójica, como son la introducción de un personaje real como parte de una trama de ficción literaria, o la introducción de la voz de la propia persona que escribe la ficción dentro de la ficción misma.77 Al igual que sucede con la moneda de curso legal, la credibilidad del dinero emitido por un hipotético Banco Central del valor literario puede ser siempre objeto de sospecha.78 Y a la inversa: el efecto auto-destructivo que produce sobre el valor de ficción de una obra literaria el juego con la convención literaria de la “verdad en la ficción” tiene su equivalente en el fenómeno que Keynes bautizó con el término de “preferencia por la liquidez”: un aglomeración de planes de ahorro a corto plazo en los que los inversores, pretendiendo manipular estratégicamente la convención social del dinero como medio de pago, acaban destruyendo su función de almacén de valor.79 Supuesto que las acciones de crítica reflexiva que llevan a cabo los falsificadores de calidad en su lucha contra las instituciones de la moneda de curso legal y la ficción literaria auténtica poseen un carácter suficientemente generalizado en nuestro mundo, la hipótesis es que ni los economistas monetarios, ni los críticos literarios, ni los historiadores del arte, pueden contar en ningún momento con la existencia de quimeras tales como un “medio de pago completamente desmaterializado”, un “documento histórico absolutamente fidedigno” o una “obra de arte absolutamente original”.

77

La analogía entre la inestabilidad reflexiva de las convenciones literarias y la de sus contrapartes monetarias ha sido examinada por J-P. Dupuy, “Self-Reference in Literature”, Poetics, 18, 491-515. 78 Tanto la inflación interpretativa (deconstruccionismo benigno) como el fraude literario (deconstruccionismo salvaje), tendrían su origen en semejante sospecha. 79 En ambos casos, en la comunicación literaria y en la comunicación monetaria, lo que es necesario averiguar en última instancia, según ciertos análisis teórico-formales, es el efecto que el conocimiento de la naturaleza convencional de una convención tiene sobre su propia estabilidad, esto es, se plantea el enigma de saber “si la estabilidad de una convención puede quedar garantizada por el conocimiento que poseen los agentes del hecho de que han de usar objetos convencionales para solucionar sus problemas de coordinación.” (A. Orléan, “The Origin of Money”, en J-P. Dupuy y F.J. Varela, Understanding Origins, La Haya, Kluwer, 1991, 113-143, p. 125).

37

Related Documents