Label Cloud

miércoles, 30 de junio de 2010

Premio Nobel de Fisiología o Medicina 2005. Un reconocimiento a la aguda observación clínica

.



por Guillermo Jaim Etcheverry
Médico y Doctor en Medicina
Investigador principal del CONICET
Ex-rector Facultad de Medicina - UBA



Desde hace muchos años, los médicos han venido observando la presencia de bacterias espiraladas en el estómago. Por ejemplo, en Boston en 1940, A. Stone Freedberg, quien hoy tiene 97 años, identificó la presencia de bacterias curvas en el estómago de pacientes ulcerosos. Pero abandonó esas investigaciones cuando sus hallazgos no pudieron ser confirmados por otros científicos, lo que hizo que su mentor Herman Blumgart lo impulsara hacia áreas de investigación en las que los resultados fueran más sencillos de defender1. Así se multiplican las historias porque nunca lograron ser sistematizadas las publicaciones mediante las que se comunicaban esos hallazgos así como también el hecho de que la enfermedad ulcerosa se lograba curar mediante la administración de antibióticos, que provenían de los más diversos países. Es más, eran recibidas con un escepticismo generalizado.
Fue recién a partir de 1983 que la insistencia de los médicos australianos Barry J. Marshall y J. Robin Warren logró instalar la idea que una bacteria presente en el estómago era capaz de causar gastritis en muchos pacientes así como también úlceras gástricas y duodenales. Ese es el hallazgo que ha sido reconocido por la Asamblea Nobel del Instituto Karolinska de Estocolmo con el Premio Nobel en Fisiología o Medicina 2005 que, precisamente, cita la importancia de la observación por parte de mentes preparadas y de la tenacidad.
Al presentar a los premiados durante la ceremonia de entrega de la distinción en diciembre de 2005, el profesor Staffan Normark, integrante de esa Asamblea señaló: "En contra de los dogmas predominantes, ustedes han descubierto que una de las enfermedades más comunes e importantes entre las que afectan a la humanidad, la úlcera péptica, es causada por una infección bacteriana del estómago. Vuestro descubrimiento indica que este padecimiento crónico e invalidante, tan frecuente, puede ser permanentemente curado mediante antibióticos beneficiando así a millones de pacientes. Vuestro trabajo pionero ha estimulado también en todo el mundo la investigación destinada a comprender mejor la relación entre las infecciones crónicas y enfermedades como el cáncer3".
Esa historia –la del Helicobacter pylori que es la bacteria en cuestión– resulta apasionante porque pone de manifiesto los prejuicios que deben vencer quienes formulan planteos que se oponen a los dogmas predominantes en un determinado momento histórico. Fue en 1979 cuando Warren, quien se desempeñaba como patólogo en el Hospital Real de Perth, Australia, descubrió la presencia de una bacteria poco común alojada en las zonas inflamadas en las biopsias de mucosa gástrica extraídas de pacientes con gastritis. Como no podía ser de otro modo, ese hallazgo fue recibido con escepticismo pues, aunque la presencia de bacterias espiraladas en el estómago era conocida desde 1875, se las consideraba un artefacto puesto que era por todos aceptado que las bacterias no podían sobrevivir en el medio ácido gástrico. Sin embargo, Warren no se desmoralizó y, al continuar con sus investigaciones, confirmó que la presencia del germen era frecuente y que estaba estrechamente vinculada a un tipo específico de gastritis. Dos años más tarde, en agosto de 1981, Barry Marshall, un gastroenterólogo del mismo hospital, se aproximó a Warren requiriendo su consejo en un proyecto de investigación. El resultado de esa colaboración llegaría a concretar el que muchos consideran como el logro más significativo de la medicina australiana de los últimos decenios.
Warren y Marshall, nacidos respectivamente en 1937 y 1951, estudiaron un numeroso grupo de pacientes en quienes, mediante endoscopia gástrica, pudieron confirmar la vinculación de la gastritis con la presencia de la bacteria. Rápidamente advirtieron que ésta se hallaba en todos los pacientes con úlcera duodenal, en la mayoría de quienes tenían úlcera del estómago y en la mitad de los pacientes con cáncer gástrico.
Un paso importante fue el dado en 1982 cuando lograron hacer crecer la bacteria en cultivo. Una vez más, intervino la suerte. Durante más de un año intentaron cultivarla sin éxito hasta que, en una semana de Pascuas los cultivos quedaron inadvertidamente en la incubadora. La prolongación del lapso utilizado hasta entonces, que era de dos a seis días, determinó el crecimiento exitoso y proporcionó la posibilidad de aislar el microbio. Se lo identificó como el Helicobacter pylori, debido a su forma helicoidal y a su hallazgo en el píloro.
La reacción de la comunidad científica fue de gran escepticismo porque durante años se venía sosteniendo que la úlcera era el resultado de la exagerada producción de ácido como consecuencia del stress, de la ingesta de alimentos agresivos para la mucosa gástrica y de otras causas similares. En ese contexto, proponer que se trataba de una enfermedad infecciosa equivalía a una herejía sin fundamento alguno. En 1983 Marshall presentó un resumen sobre sus hallazgos al congreso anual de la Asociación de Gastroenterología de Australia que fue rechazado. Es él mismo quien recuerda que entre 1983 y 1986 atravesó el periodo más difícil porque, cuando el trabajo lograba alguna difusión, la gente llamaba a su hospital lo que enfurecía a sus colegas. A pesar de esas y otras manifestaciones de rechazo, el grupo de Perth continuó reuniendo evidencia para fundamentar su teoría que sostenía que la infección por H. pylori causaba gastritis que, a su vez, podía generar úlceras en el revestimiento mucoso del estómago.
Considerando que no había mejor manera de demostrar su hipótesis, el propio Marshall ingirió un cultivo de la bacteria. A la semana comenzó con síntomas agudos de gastritis y las biopsias demostraron que había desarrollado tanto la infección con el H. pylori como una gastritis aguda. Recurriendo al bismuto –que hasta entonces se había utilizado para tratar las úlceras sin conocer su mecanismo de acción– y a los antibióticos, logró erradicar por completo la bacteria y mejorar.
Al trabajo original de Warren y Marshall, publicado en The Lancet en 19842, siguió entre 1985 y 1987 el análisis del empleo de antibióticos como tratamiento de la úlcera. Comprobaron que el 80 % de los pacientes curaba de manera permanente acompañando a la erradicación del H. pylori, lo que replanteó de manera radical el tratamiento de la úlcera gastroduodenal. Los antibióticos son hoy aceptados como el componente esencial en ese tratamiento, que ha transformado una enfermedad crónica y recidivante en una enfermedad curable.
Warren demostró que la bacteria se aloja en el epitelio superficial cubierta de una gruesa capa de mucus, lo que le permite sobrevivir en el ambiente ácido del estómago. Encontró también que sintetiza en gran cantidad una enzima que descompone a la urea en amoníaco y anhídrido carbónico, formando una capa alcalina protectora en torno a la bacteria. Precisamente fue el hallazgo de esta ureasa, lo que permitió desarrollar una prueba que hace posible contar con el diagnóstico de la infección a los pocos minutos de realizada la biopsia de la mucosa gástrica y comenzar así de inmediato el tratamiento. También se desarrolló un análisis no invasivo que permite establecer la presencia de ureasa en el estómago, y por ende del H. pylori, basado en la ingestión de urea radioactiva y determinando la concentración de anhídrido carbónico en el aire espirado.
La acumulación de estas evidencias, hizo que comenzara a ceder la resistencia inicial, motivó a otros investigadores a volver su atención hacia esta cuestión, lo que produjo un crecimiento exponencial de los estudios destinados a demostrar la relación entre la patología digestiva y el H. pylori, germen cuya presencia se observa en 9 de cada 10 úlceras. Ya se han publicado sobre el tema miles de trabajos científicos, se han convocado innumerables reuniones internacionales y la asociación de la bacteria con la enfermedad ulcerosa también ha dado origen a una industria floreciente tanto en lo que respecta al diagnóstico de la enfermedad como a su tratamiento con antibióticos. La investigación en este campo ha permitido avances importantes que van desde la biología molecular, identificando los mecanismos de protección de la bacteria así como los vinculados con su interacción con la mucosa gástrica, hasta el estudio de migración de poblaciones, que pueden ser seguidas por las variaciones en la constitución genética del H. pylori que las infecta. En 1997, se identificó el genoma completo del microorganismo, resultado del trabajo cooperativo de 42 autores en seis laboratorios de todo el mundo.
Warren y Marshall pasaron de ser objeto de desconsideración y mofa a recibir las más importantes distinciones como los premios Warren Alpert en la Universidad de Harvard, Paul Ehrlich en Alemania, Honrad Walter Florey en Australia, Lasker y Benjamín Franklin en los EE.UU., entre muchos otros. Esta historia tan curiosa, culmina ahora con el Premio Nobel compartido por ambos investigadores, que ya les había sido reiteradamente augurado debido al innegable impacto de su hallazgo. En los últimos años, se reunían a tomar cerveza en la fecha en que era anunciado el Premio Nobel esperando la noticia que finalmente llegó en octubre de 2005.
Una cuestión importante señalada por la Asamblea Nobel, es que el descubrimiento que una de las enfermedades más frecuentes en la humanidad, la úlcera péptica, tiene un origen microbiano y puede ser curada de manera rápida con importantes beneficios económicos y sociales, ha estimulado la búsqueda de gérmenes como posibles causas de enfermedades inflamatorias crónicas como, entre otras, la ateroesclerosis. Si bien no se cuenta aún con respuestas definitivas, datos recientes sugieren que una alteración en el reconocimiento de productos microbianos por parte del sistema inmunológico humano puede contribuir al desarrollo de esas enfermedades. "El descubrimiento del H. pylori ha permitido una mejor comprensión de la vinculación entre la infección crónica, la inflamación y el cáncer", dice la Asamblea Nobel para destacar las implicancias generales del hallazgo que reconoció en 2005.
Esta distinción tiene además la virtud de premiar la investigación realizada por clínicos observando pacientes en el transcurso de su tarea cotidiana. En una época como la actual en la que la creación científica parece ser sólo posible si se involucra una estructura casi industrial, la historia del H. pylori demuestra el poder de la observación y la creatividad de un solo individuo apoyado en tecnologías sencillas. También muestra el resultado de persistir en el esfuerzo y de defender los hallazgos ante la incredulidad de la comunidad científica. Son muchos los ejemplos de científicos que recibieron el Premio Nobel por descubrimientos que al comienzo concitaron rechazo, como es el caso, entre otros, de Severo Ochoa, Murray Gell-Mann, Arne Tiselius, Hans Krebs, Klaus von Klitzing e Hideki Yukawa. Resulta oportuna la afirmación de Albert Szent Györgyi, también Premio Nobel: "El descubrimiento consiste en ver lo que todos han visto y pensar lo que nadie pensó".
La ciencia es una actividad humana y como tal, requiere de todas las condiciones necesarias para concretar cualquier emprendimiento encarado por los seres humanos. La curiosidad, el deseo de comprender y la voluntad de perseguir las ideas hasta el final, desempeñaron un papel central en esta historia. Sobre todo, esta historia es aleccionadora en el campo de la medicina porque destaca la importancia de mantener la mente abierta a las propuestas acerca del origen de las enfermedades en general aun frente a teorías que, en el contexto de las predominantes, parecen disparatadas. A veces, como en este caso, pueden no serlo.


1. Marshall B. Helicobacter pylori: 20 years on. Clin Med (JRCPL) 2002; 2:147–52. En: www.medmicro.wisc.edu/graduate/courses/740/pdf/Helicobacter_Review.pdf; consultado el 26-2-06.
2. Marshall BJ, Warren JR. Unidentified curved bacilli in the stomach of patients with gastritis and peptic ulceration. Lancet 1984;1 (8390):1311-5.
3. Normak S. Presentation speech. En: http://nobelprize.org/medicine/laureates/2005/presentation-speech.html; consultado el 28-2-2006



Medicina (B. Aires) [serial on the Internet]. 2006 Apr [cited 2010 June 30] ; 66(2): 173-175. Available from: http://www.scielo.org.ar/scielo.php?script=sci_arttext&pid=S0025-76802006000200017&lng=en.


.

Diseño racional de drogas: en busca de la droga ideal

.



por Esteban L. Ravaschino
Departamento de Química Orgánica, Facultad de Ciencias Exactas y Naturales
Universidad de Buenos Aires.



Química Medicinal

La química medicinal surgió como especialidad durante las últimas décadas del siglo pasado y concierne, según la definición oficial de la IUPAC, al "descubrimiento, desarrollo, identificación e interpretación del modo de acción de un compuesto biológicamente activo al nivel molecular. El interés está puesto principalmente en la droga, aunque también concierne a la química medicinal el estudio, identificación y síntesis de productos metabólicos de drogas y compuestos relacionados". Sin embargo, el nacimiento de la especialidad tiene un origen más lejano: la medicina se ha valido de la química desde los tiempos más remotos o, al menos, desde que la alquimia se transformó en química. El puntapié inicial lo dio el farmacéutico francés Charles Louis Cadet de Gassicourt, quien, en la edición inaugural del Bulletin de Pharmacie (1809), sugirió que el uso de preparaciones complejas debía ser abolido en favor del de sustancias puras, las cuales deberían ser estudiadas y clasificadas debidamente. Así fue cómo, de la mano del desarrollo de la química orgánica, se aislaron los primeros principios activos a partir de plantas, entre 1815 y 1820.


Descubrimiento

Una vez que se hubo establecido que la actividad biológica de cualquier extracto vegetal, animal o mineral era causada en todos los casos por una sustancia química, el proceso de aislamiento, purificación e identificación de dicho principio activo se convirtió en fuente de descubrimiento de numerosas drogas desde el siglo XIX hasta la actualidad. Ya en 1805 Friedrich Serturner aisló morfina a partir de opio, identificándola como el compuesto responsable de la acción de dicha planta. Otros alcaloides, actualmente muy conocidos, como la cafeína, la codeína, la atropina y la papaverina, entre otros, fueron aislados entre 1819 y 1848. Sin embargo, no fue hasta 1870 en que la primera estructura química de un alcaloide (coniína) fue elucidada por Schiff. Otros ejemplos de drogas extraídas de la naturaleza son la gramicidina, primer antibiótico extraído de bacterias del suelo; la insulina, purificada de extractos pancreáticos animales; y el ácido salicílico, analgésico extraído por primera vez de la corteza del sauce, y antecesor de la muy exitosa aspirina (ácido acetilsalicílico).

De esta forma fue como, hacia fines del siglo XIX, los avances en los conocimientos en química orgánica abrieron nuevas posibilidades para la búsqueda de compuestos biológicamente activos. El conocimiento de la estructura química de los principios activos aislados de plantas y el desarrollo de la síntesis orgánica permitieron a los químicos realizar búsquedas sistemáticas de compuestos con una actividad determinada. Obteniendo sintéticamente dichos compuestos cuya estructura se basaba en el conocimiento de la actividad de una molécula conocida, proveniente de una fuente natural, se encararon los primeros trabajos de búsqueda sistemática. Esto era, sin ir más lejos, el comienzo del estudio de relaciones de estructura-actividad, hoy conocido como SAR (structure-activity relationship).

Cabe destacar en este punto la contribución de la industria farmacéutica con su mayor capacidad de inversión y de mano de obra que la académica para este tipo de proyectos. Podemos citar como un ejemplo importante la modificación extensiva de rifamicinas, metabolitos naturales de la bacteria Amycolatopsis mediterranei, llevada a cabo por los laboratorios Lepetit, que llevó al descubrimiento de la rifampicina en 1967.

Otra fuente de descubrimiento muy importante es el azar, que no puede ser menospreciado, ya que representa a la abrumadora mayoría de los descubrimientos de drogas a lo largo del siglo XX. Además de la muy conocida historia de la penicilina, descubierta por Alexander Fleming en 1928, existen numerosos ejemplos, como el caso del Librium®, descubierto por Leo Sternbach. Éste, mientras trabajaba en la síntesis de benzodiazepinas para la farmoquímica Hoffmann-La Roche, “redescubrió” un compuesto sobre el que había estado trabajando, y el cual, tras haber sido abandonado por un largo tiempo, había sufrido un reordenamiento en su estructura química dando lugar a un potente tranquilizante. El cisplatino, un potente antitumoral, fue descubierto en 1965 por un grupo de biofísicos mientras estudiaban el efecto del pasaje de corriente eléctrica por cultivos de Escherichia coli. Los investigadores observaron que este compuesto (cis-diaminodicloroplatino), que se formaba a partir de los electrodos de platino, inhibía la división celular en dichos cultivos. De la misma manera, la actividad antidepresiva del litio fue descubierta cuando se lo incorporó como contra-anión del urato para mejorar la solubilidad en agua del ácido úrico mientras se estudiaba el metabolismo de dicho ácido en maniáticos depresivos. Los edulcorantes –la sacarina, el ciclamato y el aspartato– fueron descubiertos accidentalmente por químicos que probaron su gusto al tocarse la boca o fumar un cigarrillo luego de haberse ensuciado las manos con estos compuestos. En fin, la lista de casualidades y descubrimientos es bien larga.


Evolución en el descubrimiento de drogas

A medida que avanzaba el siglo XX se fueron desarrollando áreas nuevas de investigación, como la biología molecular, la simulación asistida por computación y los métodos espectroscópicos. Todas estas áreas proveyeron herramientas extremadamente útiles para la búsqueda de nuevos compuestos y fueron llevando la química medicinal hacia un terreno cada vez más racional, en donde se fue invirtiendo la estrategia de la búsqueda. Es decir, se pasó de encontrar una acción farmacológica a compuestos conocidos, a buscar o diseñar compuestos nuevos a partir de una acción farmacológica deseada.

Estrategias modernas para la búsqueda de drogas

Dentro de las estrategias modernas para la búsqueda de nuevas drogas, existen distintas aproximaciones. Éstas se pueden clasificar evaluando el grado de azar que incorporan. Así, a ambos extremos de esta clasificación se sitúan, por un lado, los métodos basados en el screening de bibliotecas de compuestos, en que la estrategia de búsqueda está basada exclusivamente en el azar, y por el otro, el diseño racional de drogas, en donde existe un conocimiento del blanco al nivel molecular y cada elemento en el diseño de la droga está fundamentado. Por supuesto, hay una gama de estrategias intermedias basadas en mayor o menor medida en el azar.

En el primer caso se intenta aumentar las probabilidades de éxito mediante el uso de un gran número de ensayos de evaluación del compuesto químico. Esto puede hacerse de dos maneras que implican algunas diferencias conceptuales. La primera es definir un experimento modelo para ensayar cierta actividad biológica buscada, sobre una extensa biblioteca de compuestos. El problema se centra, en este caso, en cómo obtener una biblioteca de compuestos originales lo suficientemente grande como para tener una probabilidad de acierto no despreciable. La solución aparentemente definitiva a este problema llegó en los años 90 junto con de la síntesis combinatoria. Aunque, si bien esta herramienta hizo posible la generación de bibliotecas inmensas de compuestos originales, posee una falencia intrínseca, que es la limitada diversidad estructural, sujeta al tipo de reacciones aplicables. Es decir que, aunque es posible generar una gran cantidad de moléculas distintas al aplicar una serie de reacciones sobre distintos sustratos, al mismo tiempo, esa secuencia limita el tipo de estructura obtenido, y por ende, las probabilidades de encontrar nuevas estructuras activas en el modelo biológico utilizado.

La segunda opción, que intenta subsanar el problema de la diversidad estructural, es el screening de compuestos naturales aprovechando la diversidad que ofrece la naturaleza, y aún más, la pureza estereoquímica de los productos naturales. Obviamente, el aislamiento, purificación y caracterización de productos naturales implica un largo trabajo por cada estructura nueva. Esto hace que este tipo de bibliotecas sean mucho más reducidas en número que las generadas por síntesis combinatoria. Por otro lado, las posibilidades de acierto pueden aumentar si lo que se busca no es un efecto específico sino una nueva droga con alguna actividad biológica importante. Ésta es una motivación común en la industria farmacéutica a fin de introducir nuevas drogas al mercado, aunque también lo es en el ámbito académico. Muchos grupos de investigación dedican sus esfuerzos a aislar, purificar e identificar nuevas y complejas estructuras químicas, ya sea porque pertenecen a una familia química que posee cierto tipo de actividad biológica general o porque se espera encontrar nuevos compuestos especulando con que posean alguna actividad relacionada con la fuente natural o con su entorno. En definitiva, en esta aproximación se diseña con mayor cuidado una serie de experimentos para evaluar distintos compuestos por lo que el incremento en las probabilidades de acierto viene dado por un mayor número de ensayos para la evaluación de las potenciales actividades biológicas.

En el caso de contar con muy buenos recursos financieros, es posible encarar la máxima expresión de este tipo de aproximaciones, lo que se conoce como ¨High-throughput screening¨. Con la ayuda de la robótica se puede realizar el screening de una gran biblioteca de compuestos sobre unos 40 o 50 ensayos. El problema de alimentar un sistema de ensayos con gran cantidad de compuestos se puede resolver utilizando extractos de productos naturales, los cuales se purifican y caracterizan sólo en el caso de encontrar actividad, sin embargo, la química combinatoria sigue siendo la mayor fuente de compuestos en este caso, con la consecuente limitación de la diversidad estructural, antes mencionada.

En general, este tipo de estrategias tiene su origen en la necesidad de hallar una droga efectiva en el corto plazo. Urgencias de esta clase pueden darse por razones tan disímiles como la necesidad de paliar una nueva enfermedad de rápida expansión o introducir una nueva droga en el mercado para lograr mayor competitividad.

En el camino entre lo puramente azaroso y lo puramente racional se encuentran estrategias “intermedias”, con un conjunto de compuestos son mucho más limitado, ya que se toma como referencia una droga modelo de actividad ya conocida y se estudia el efecto que tienen distintas modificaciones sobre su estructura. Esta aproximación no es de las más modernas, conceptualmente hablando, pues ya hemos visto que su implementación comenzó en la primera mitad del siglo pasado. Sin embargo, ha ido incorporando elementos de la química y la biología modernas y ha mantenido su vigencia, siendo, de hecho, la práctica más común ya que posee la mejor relación entre probabilidad de éxito y costo. La parte racional radica en el conocimiento de que el efecto terapéutico de una droga está estrechamente relacionado con su estructura química. De esta manera, pequeñas variaciones en la estructura suponen cambios en la potencia de la droga, lo que garantizan, en general, una actividad distinta de cero, y, en caso de éxito, una actividad mayor. La incorporación del azar se da por las variaciones que se realizan sobre la estructura. Aquí es donde se puede modular el factor azar haciendo más o menos racionalmente dichos cambios. Generalmente, se reconoce una parte de la estructura que se cree necesaria para que la droga sea activa, conocida como farmacóforo. Fuera de este farmacóforo, las modificaciones pueden tener un carácter racional, como variar la lipofilicidad con fines farmacocinéticos, o eliminar grupos lábiles o reactivos.

Evidentemente, la posibilidad de realizar modificaciones elegidas racionalmente está íntimamente relacionada con el conocimiento del mecanismo de acción de la droga. Sin embargo, en la década del 60 surgió una nueva aproximación en la que se intentaba prever qué cambio era necesario realizar sobre una estructura líder sin conocer necesariamente su acción al nivel molecular. El problema se abordó desde un punto de vista bastante original que consiste en cuantificar las propiedades fisicoquímicas de las moléculas en cuestión mediante diversos parámetros, para poder encontrar correlaciones numéricas entre la estructura y la actividad biológica. Esta técnica se conoce como QSAR (Quantitative Structure-Activity Relationship), y los parámetros que se intenta relacionar están basados tanto en propiedades vinculadas a que las interacciones entre la droga y su receptor, como en propiedades relacionadas con la absorción, la distribución, el metabolismo y la excreción (ADME) de la droga. De hecho, los trabajos iniciales se centraron en correlacionar el coeficiente de partición octanol/agua (log P) con la actividad medida, ya que se especulaba con que esta propiedad, estrechamente relacionada con los fenómenos de transporte, incidía en una gran medida en dicha actividad. En la actualidad existe una gran cantidad de parámetros relacionados a distintas propiedades fisicoquímicas, sin embargo, el objetivo sigue siendo el de evaluar correctamente la incidencia de cada uno de ellos con relación a la actividad biológica esperada, a fin de desarrollar un modelo matemático que pueda predecir cuantitativamente el cambio en la actividad con relación a los cambios en la estructura.

Finalmente, no podemos obviar la contribución de la informática a la búsqueda de drogas nuevas. Es innegable que la capacidad de cálculo a la que se accede por medio de una computadora facilita notablemente o, mejor dicho, hace posible el procesamiento de enormes cantidades de datos como los obtenidos en experimentos tipo ¨high throghput¨. También es cierto que facilita el desarrollo de modelos de predicción con múltiples parámetros en QSAR, pero la contribución más interesante es, probablemente, la que hace a través del modelado molecular.

El concepto de predicción de propiedades fisicoquímicas de las moléculas nació junto con la mecánica cuántica, sin embargo, la aplicación de las aproximaciones a las ecuaciones correspondientes a sistemas más complejos que la molécula de hidrógeno se hace impracticable sin la ayuda del cálculo computacional. Tal es el requerimiento matemático para calcular los estados de energía de las moléculas más simples. Recién en la década de 1970 comenzó a vislumbrarse la posibilidad de procesar en tiempos razonables los volúmenes de cálculo correspondientes a la predicción de los niveles de energía de moléculas simples. Es sabido que el desarrollo de la informática se produjo de manera exponencial desde su inicio, y hoy en día brinda herramientas de predicción valiosísimas para el químico medicinal en cuanto a la posibilidad de predecir la forma en el espacio tridimensional y otras propiedades importantes como el potencial electrostático o la capacidad de formar uniones no covalentes con un receptor. Obviamente, toda esta información carece de sentido sin el conocimiento del receptor a nivel molecular, ya sea una enzima, una proteína, o una determinada secuencia de ADN o ARN. La biología molecular provee las herramientas necesarias para el estudio del receptor en cuestión. Por ejemplo, si el blanco molecular seleccionado es una enzima que se desea inhibir, la técnica de clonación y expresión en una bacteria o levadura facilita los medios para su obtención en grandes cantidades. También provee herramientas para el estudio estructural y funcional del receptor. Volviendo al ejemplo de la enzima, es posible, mediante manipulación genética, producir la inactivación por mutación dirigida (cambiar un aminoácido en particular), biosintetizar parcialmente la enzima para estudiar la actividad de ciertas subunidades independientemente, etc.

Diseño racional

Los avances mencionados más arriba fueron delineando la estrategia para la búsqueda racional de nuevas drogas. Esta estrategia se puede resumir en los siguientes puntos:

1. Identificación del blanco molecular (enzima, proteína, receptor, etc.)

2. Validación del blanco molecular.

La validación consta de la comprobación experimental de que el blanco molecular elegido es un objetivo válido para el tratamiento del mal en cuestión. Esta demostración se lleva a cabo, en general, con el apoyo de técnicas de biología molecular. Como ensayo característico podemos mencionar el knock-down genético, tomando como ejemplo una infección parasitaria. Si se sospecha que existe una enzima imprescindible para la sobrevida del parásito, se pueden inactivar los genes que codifican para esta enzima y, evaluar la viabilidad de este organismo con déficit de la misma. Como complemento se pueden realizar experimentos de recuperación, es decir, agregar externamente el metabolito sintetizado por la enzima en cuestión para ver si se compensa la falta del mismo por el déficit de la enzima.

3. Búsqueda de una molécula líder.

Ésta puede llevarse a cabo mediante un diseño basado en la estructura tridimensional del receptor, si es que existe información al respecto. En caso contrario, el método más común es basarse en la estructura del sustrato natural y hacer un estudio SAR para identificar el farmacóforo.

4. Optimización del compuesto líder.

Una vez identificado el farmacóforo se ajusta la estructura para optimizar las propiedades ADME, a la vez que se estudia la toxicidad y mutagenicidad de los compuestos sintetizados.

5. Estudios preclinicos y clínicos.

6. Aprobación de la droga por la entidad regulatoria correspondiente (p. ej. FDA en EE.UU.)

Siguiendo aproximadamente los pasos mencionados antes es que hacia la década del 90 comenzaron a aparecer las primeras drogas producto del diseño racional. Se puede contar como primer ejemplo al antihipertensivo Captopril (Squibb). El diseño de esta droga estuvo basado en la estructura tridimensional de la Carbopeptidasa A. Luego de hallar la droga líder succinoilprolina, las mejoras hechas en su estructura, basadas en el conocimiento de la estructura tridimensional del sitio activo de la enzima, llevaron al inhibidor Captopril, 30.000 veces más potente. Los inhibidores de proteasa de HIV-1 saquinavir, indinavir, ritonavir y nelfinavir hicieron su aparición en el mercado a mediados de la década del 90. Todos ellos fueron diseñados exclusivamente sobre la base de estructuras tridimensionales. Existen muchos otros ejemplos de inhibidores diseñados sobre la base de la estructura tridimensional de las proteínas. Se han encontrado, de esta manera, inhibidores de aldosa reductasa, cisteínproteasa, HIV proteasa, proteína quinasa, transcriptasa reversa y purina nucleósido fosforilasa, entre otras. En otros casos, a falta de datos estructurales precisos, se ha utilizado el diseño tridimensional basado en el ligando. Ejemplo de ello es el desarrollo de Devazepide (Merck & Co.), un antagonista de la hormona peptídica Colecitokinina (CCK). Los químicos de Merck reconocieron en el antagonista de CCK asperlicina (aislado del hongo Aspergillus alliaceus, IC50 = 1,4 mM) estructuras parciales de benzodiazepinas y triptófano. Sintetizando análogos de esta droga que contuvieran dichas estructuras llegaron al Devazepide (IC50 = 80 pM), 10.000 veces más potente.





Conclusiones

Ciertamente, todas las etapas concernientes al diseño racional de drogas involucran múltiples disciplinas. Idealmente, un grupo de investigación debería estar integrado por profesionales que dominen las diversas áreas del conocimiento, como la química orgánica, la fisicoquímica, la espectroscopia, la biología molecular, la química biológica, la virología, la parasitología, la medicina, entre otras. Es decir, para encarar el proceso completo de la búsqueda racional se necesitaría, en principio, un grupo de investigación interdisciplinario que pudiera abarcar todo el espectro de conocimiento necesario.

Sin ninguna duda, resulta apasionante pensar en la posibilidad de identificar un blanco molecular asociado a alguna enfermedad, estudiarlo en detalle y a partir de esa información diseñar y sintetizar una droga. Sin embargo, según lo dicho anteriormente, resulta difícil llevar a cabo todo este proceso en un único laboratorio. Existen, claro está, casos en que estas limitaciones, mayormente económicas, no lo son tanto. Por ejemplo, en la industria farmacéutica, las grandes empresas multinacionales cuentan con los recursos suficientes como para afrontar los gastos de sueldos de profesionales altamente capacitados y los más diversos instrumentos que van desde espectrómetros de resonancia magnética nuclear y difractómetros de rayos X, pasando por potentes computadoras, hasta costosos kits de ensayos biológicos y equipos automatizados. Dentro del ámbito académico, existen grupos multidisciplinarios que pueden contar con subsidios del orden del millón de dólares y abarcar desde la síntesis de nuevos compuestos hasta la clonación, expresión y purificación de enzimas, pasando por el diseño asistido por computadora y diversas espectroscopías. Obviamente, las últimas etapas, es decir, los estudios preclínicos y clínicos, se reservan para drogas con muy serias posibilidades de ser comercializadas, por lo que a partir de estas etapas, casi invariablemente, aparece la inversión de la industria farmacéutica.

En nuestro país, los grupos de investigación son muy homogéneos en cuanto a disciplinas, por lo que pensar en encarar un proyecto de química medicinal parece bastante desacertado. Aún así, la colaboración entre grupos suele ser la solución a este problema. Nuestro sistema científico posee los conocimientos y el equipamiento necesarios para llevar a cabo proyectos de diseño racional, principalmente basados en la colaboración entre grupos, siempre y cuando esa colaboración responda a un objetivo común y no se dé como prestación de servicios entre grupos. En el último caso, el interés puede decaer y la pérdida de fluidez en el intercambio de resultados puede llevar al fracaso del proyecto.

La formación de grupos multidiciplinarios puede resultar muy provechosa a la hora de encarar proyectos de química medicinal, redundando en una mayor fluidez en la investigación. Por otro lado, el diseño racional de drogas se presenta como una de las formas más avanzadas y lógicas en la búsqueda de nuevas drogas, y es, al mismo tiempo, la estrategia con mayores perspectivas a futuro. Si bien hallar la droga ideal por diseño es una utopía, el hecho de que se apunte desde el inicio del diseño a buscar drogas que actúen en blancos moleculares específicos aumenta las posibilidades de encontrar drogas selectivas y, por lo tanto, seguras.





Bibliografía



www.iupac.org
Sternbach LH Agents Actions, 1972, 2, 193-6.
Kubinyi, H. Diseño racional de drogas. FCEyN, UBA. 19-24 de noviembre de 2001.
Kubinyi, H. J Recept Signal Transduct Res. 1999, 19, 15-39.
Wermuth, C.G., Ed. The practice of medicinal chemistry. Academic Press, London, 2003.
Fairlamb, A. H. Future Prospects for the Chemotherapy of Chagas. Facultad de Medicina, UBA. 19-20 abril 1999.
Tesis doctoral ¨Diseño y síntesis de inhibidores del camino biosintético de tripanotiona¨ E. L. Ravaschino, 26 de marzo de 2007, F.C.E.yN., Universidad de Buenos Aires.



Revista QuímicaViva
Número 3, año 6, Diciembre 2007


.

martes, 29 de junio de 2010

Esa oscura energía del deseo

.



por Leonardo Moledo



Dialogo con Gabriel Bengochea
Doctor en Física



–Usted se dedica a la energía oscura...

–Sí. Esencialmente lo que hacemos es trabajar sobre modelos para explicar la posible expansión acelerada del universo.

–Empecemos por el principio. ¿Qué es esa cosa rara que llamamos energía oscura?

–Sí, es raro. Algunos dicen que es el éter del siglo XXI. Yo justamente en este momento estoy en una bisagra. Si bien mi licenciatura y mi tesis de doctorado las hice en el marco de lo que es el modelo estándar cosmológico, ahora justamente estoy tratando de empezar a trabajar en otros tipos de modelos en los que se renuncia a algunos de los pilares del modelo estándar.

–¿Qué pilares rompió?

–Por ejemplo: la isotropía y homogeneidad del universo. Trabajar con modelos inhomogéneos.

–¿Por qué va a ser inhomogéneo el universo?

–¿Por qué va a ser homogéneo?

–Bueno, por ¿Guth y su inflación?

–Hoy en día los mapas de galaxias son muy grandes. Si uno lo mira “con cariño”, pareciera ser que a gran escala es bastante isótropo. Pero ojo. La homogeneidad no está demostrada. Es un principio que no se puede demostrar. Es un supuesto, una especie de solución teórica para los problemas cosmológicos que generan las observaciones. Asumir la isotropía y homogeneidad es una estrategia bastante explicativa, que encaja bastante bien. Pero también implica que hay que agregar una cosa que no sabemos qué es y que no podemos ver y que, además, es el 70 por ciento de todo. Ese algo que no sabemos qué es es la energía oscura. La materia oscura es un veintipico por ciento. Y sólo cuatro por ciento es lo que conocemos realmente. Bajo la suposición de que es isótropo y homogéneo, uno tiene que lidiar con las observaciones que parecen sugerir que el universo se acelera. Lo que hay que poner para explicar esa aceleración es algo que llamamos, genéricamente, energía oscura.

–¿Y qué clase de cosa es eso?

–En el ’98 fue la fundación de este concepto, aunque los problemas del modelo se venían detectando desde bastante antes. Pero en el ’98 se da la observación de supernovas de tipo 1ª, que son las que sirven de patrones de luminosidad para medir distancias muy grandes, uno tenía las observaciones de estrellas muy lejanas y las quería ajustar con un modelo, pero no funcionaba con el modelo estándar. Cuando uno agregaba una nueva componente, suponiendo que el universo era efectivamente isótopo y homogéneo, eso que uno tiene que agregar, la ecuación que tiene que satisfacer esa entidad nueva que usted pone, hace que el universo se acelere a partir de determinado momento. En eso trabajé durante mis años de doctorado. Hicimos varias publicaciones donde, por ejemplo, estudiábamos cómo se podía haber modificado en el viaje la luz de esas estrellas con las que se mide distancia y otro trabajo de gravedad modificada: o sea, modificar la relatividad general para armar un modelo en el cual el causante de esta aceleración fuera un efecto geométrico.

–¿Y la energía oscura dónde entra?

–La energía oscura es un nombre genérico que se le dio a ese setentaypico por ciento que uno tiene que agregar. Pero no sabemos qué es: simplemente sabemos cuál es el efecto que genera.

–¿Y cuál es?

–Hace que se acelere el universo. El efecto indirecto es ése.

–¿Y qué características tiene que tener para que pase eso?

–Imagínese que fuera un gas (no es necesario que lo sea). Tiene una cosa anormal en relación con las cosas que nosotros vemos, que es que su presión es negativa. ¿Qué significa esto? Si uno pusiera materia ordinaria dentro de un volumen, la gravedad haría que ese volumen colapsara y se formara una estrella o una galaxia. Esto hace un efecto de antigravedad: que se repela todo. No es que uno puede agarrar un poco de energía oscura y ver en un laboratorio cómo funciona: se la “observa” indirectamente.

–Cada vez que se introduce un término teórico, como éste, hay toda una discusión sobre si este término teórico responde a algo real o si es sólo un recurso matemático. Eso pasó con los átomos o con las moléculas. Mendeleiev, por ejemplo, nunca creyó en la existencia de los átomos. Cuando Newton formula la ley, la objeción es, justamente, la de si esa fuerza tiene naturaleza real o no. Acá usted está hablando de un término teórico grueso, importante. ¿Cuál es la naturaleza de esa energía?

–No la conocemos.

–¿Conjeturas?

–Yo creo que nunca lo vamos a saber.

–Pero eso es religión...

–Y... raya con la religión. Porque fíjese que no tenemos manera de acceder a un pedazo de energía oscura. Esto actúa a escalas cosmológicas (o sea, no la voy a encontrar acá al lado de la computadora)... Usted me preguntaba cuál podría ser la naturaleza de la energía oscura. El primer candidato, el más probable, es lo que se denomina una constante cosmológica. Ese término de constante cosmológica es lo que determinaría la curvatura intrínseca que tiene el universo cuando nació.

–Bueno, de hecho el vacío tiene curvatura.

–Ahí nos vamos a otro problema.. ¿Qué tipo de energía es esto? Ahí me encuentro con el problema de la constante cosmológica. ¿Es energía de vacío? ¿Es un campo que todavía no estoy descubriendo con modelo de quintaesencia?

–¿Y qué es el modelo de quintaesencia?

–El espíritu es el mismo que se usó para explicar el comienzo del universo a partir de los modelos inflacionarios. A principios de los ’80 se agrega una entidad nueva que hace que el universo se expanda aceleradamente y muy rápido. La gente a la que le gustaban los modelos de inflación dijeron: “Ah, ya sabemos cómo hacer aceleración. Hagamos algo parecido pero para que pase ahora”. Esos son modelos de quintaesencia. Esa es una posibilidad. Agregar un campo nuevo de igual estilo que la inflación.

–Eso de agregar campos a piacere suena mucho a hipótesis ad hoc.

–Uno en principio podría decir que está bien o que está mal. Estaría mal porque no se sabe nada de la naturaleza de eso que está agregando. Estaría bien en tanto y en cuanto, como modelo, es explicativo de las observaciones que tenemos. Así como lo es el modelo del Big Bang.

–Pero el éter y el flogisto también funcionaban.

–Sí, hasta que se encontró algo nuevo que funcionaba mejor.

–¿Y usted cree que esas cosas existen en la realidad? ¿Son algo más que modelos?

–Yo separaría entre lo que es materia y lo que es energía oscura. De materia oscura no sabría qué decirle. Sobre la energía oscura, sí tengo una posición tomada: como teoría, la Teoría de la Relatividad General parece ser correcta. Y si yo “creo” en la Relatividad General, para mí la energía oscura es una constante cosmológica, es geometría, es una curvatura intrínseca con la que nació el universo. Eso es si supongo que el universo es isótropo y homogéneo. Pero yo creo que todas las descripciones que tenemos hoy en día son muy simplificadas de lo que realmente el universo es. Cuando uno se aparta de la súper-elegancia del universo (isótopo, homogéneo, gases ideales) entonces nos podemos librar de la energía oscura y eso es un efecto de que el universo es inhomogéneo a gran escala.



Informe: Nicolás Olszevicki.



Diario Página12 30/6/2010.-


.

Sheryl Crow y Sting cantan con nosotros

.






Always on your side



My yesterdays are all boxed up and neatly put away
But every now and then you come to mind
'Cause you were always waiting to be picked to play the game
But when your name was called, you found a place to hide
When you knew that I was always on your side.

Well everything was easy then, so sweet and innocent
My demons and my angels reappeared
Leavin' only traces of the man you thought I'd be
Too afraid to hear the words I'd always feared
Leavin' you with so many questions all these years.

Is there some place far away, some place where all is clear
Easy to start over with the ones you hold so dear
Or are you left to wander, all alone, eternally
This isn't how it's really meant to be
No, it isn't how it's really meant to be.

Well they say that love is in the air, but never is it clear,
How to pull it close and make it stay
Butterflies are free to fly, and so they fly away
And I'm left to carry on and wonder why
Even through it all, I'm always on your side.

Is there some place far away, some place where all is clear
Easy to start over with the ones you hold so dear
Or are we left to wander, all alone, eternally ?
But this isn't how it's really meant to be
No, it isn't how it's really meant to be.

Well they say that love is in the air, never is it clear
How to pull it close and make it stay
Butterflies are free to fly, why do they fly away ?
Leavin' me to carry on and wonder why
Was it you that kept me wandering through this life ?
When you know that I was always on your side.


.

Juego de masacre

.


por Enrique Pinti



Cada uno es dueño de su vida y, si bien muchos seres humanos no tienen la suerte de poder elegir la mejor vida, esa vida soñada donde todo es armonía y bienestar, lo que llamamos vida, existencia o como queramos llamarla es de nuestra absoluta propiedad.

Algunos tenemos "vida pública"; otros, anónima, aunque nadie es del todo anónimo si tiene familiares y compañeros de trabajo. Quien más quien menos, todos tienen cierto grado de exposición.

En las casas de inquilinato, como se denominaban los famosos conventillos, la privacidad de los "anónimos" era casi nula. Desde la encargada hasta los proveedores sabían vida y milagros de todos los ocupantes de esas torres de Babel donde convivían tanos, gallegos, rusos, turcos y criollos en, a veces, no tan alegre montón. Pero aun en esos ámbitos tan variopintos y apretujados había secretos escondidos tras las apariencias. Familias supuestamente ejemplares ocultaban conductas no tan decentes como se podía pensar, y otros grupos considerados sospechosos de hechos delictivos o inmorales sorprendían por actos impensadamente humanitarios y piadosos. Hoy, en un mundo convulsionado donde las noticias vuelan por redes de tecnología que informan al instante, son muy pocos los secretos que pueden mantenerse como tal, y salpican con su barro escandaloso la vida y hasta la muerte de famosos y la existencia de ignotas víctimas de las debacles económicas. De Michael Jackson a Luis Miguel, y de ocupantes de shoppings deambulando y durmiendo en los bares y restaurantes del complejo a infiltrados en aeropuertos internacionales viviendo en las instalaciones del lugar como en un limbo sin nacionalidad, todos están (estamos) en la mira, no ya de las aparatosas cámaras televisivas de la segunda mitad del siglo pasado, sino del minúsculo celular, que registra robos y orgías con absoluta claridad en nítidas imágenes que se reproducen en facebooks y redes de comunicación que dan la vuelta al mundo en ochenta segundos y ¡reíte de los ochenta días de Julio Verne! Dentro del gran tinglado de la vida pública, por la fuerza de la necesidad de morbo de las masas -que produce millones y millones de dólares, euros o yenes, según cotizaciones que varían con las épocas, para los dueños de los medios masivos de comunicación-, encontramos mediáticos voluntarios dispuestos a vivir duelos, enfermedades, gozos, bodas, funerales, casamientos, divorcios, nacimientos, abortos, muertes y resurrecciones con cámaras testigo. Luego entran a tallar los involucrados para bien o para mal en esos avatares, que se convierten en nuevos títeres del juego de masacre, y cerrando el cortejo llegan los que, celosos por la notoriedad lograda por los protagonistas del escándalo, vociferan confesiones y declaraciones rimbombantes, en una especie de competencia de llantos, congojas, ironías e improperios que por deformación y malversación de valores son concebidos como "esparcimiento y solaz para las masas abatidas por una realidad social crítica y deprimente". O sea que combatimos la depresión viendo depresiones, nos divertimos con la desdicha ajena y nos consolamos creyéndonos mejores que esos seres algunas veces ricos y famosos, y otras pobres y lastimosos.

Cada uno es dueño de su vida y, si quiere publicarla, venderla o rematarla, ésa será una decisión que, nos guste o no, es propiedad intelectual de los protagonistas. Los que se niegan a hacer público lo privado deberán exigir el mismo respeto. Incluso algunos de los que nunca mostraron nada, si un día se les da la gana pueden cambiar de bando por decisión propia, y ellos y sólo ellos decidirán sobre las condiciones de la entrega. No deben ofenderse entonces los buscadores de chimentos si alguien se queja por invasiones a la privacidad, porque el "derecho de autor" seguirá perteneciendo al interesado, que al abrir la puerta a los leones del circo romano debe asumir el riesgo de ser devorado, pero también puede ejercer el derecho a defenderse si es herido cruelmente. Este vejete que aquí escribe aconseja no meterse en problemas y mantener cerrada la entrada al juego de masacre. Nadie sale impoluto de él, y hay barros que no se limpian con ningún quitamancha.


Revista la nación 13/6/2010.-



.
.

domingo, 20 de junio de 2010

La investigación en la sociedad del conocimiento*

.


por Miguel Ángel Quintanilla
Instituto Universitario de Estudios sobre la Ciencia y la Tecnología,
Universidad de Salamanca, España



Al hablar sobre educación e investigación en la Europa del conocimiento es necesario reflexionar, en primer lugar, sobre qué es lo que llamamos "sociedad del conocimiento". Es preocupante el hecho de que demos por supuesto a qué nos referimos cuando hablamos de algo, para luego, al hablar en concreto de cada tema, descubrir que se estamos entendiendo cosas completamente diferentes. Por ejemplo, ahora que todo el mundo asume que estamos en una sociedad del conocimiento, a poco que se indague nos daremos cuenta de que casi nadie sabe qué significa "conocimiento". Todo el mundo da por supuesto que entendemos qué es el conocimiento, y que mayoritariamente se sabe que éste es muy importante en la sociedad actual. No obstante, está claro que no es lo mismo el conocimiento propio de la pseudociencia (por ejemplo, el que pulula en algunos programas televisivos), ni el surgido de la experiencia personal, ni el de un explorador, por caso, que el conocimiento de un científico. De manera que la noción de conocimiento no es unívoca. Es necesario precisar que cuando se habla de la sociedad del conocimiento, y más específicamente de los retos que la sociedad del conocimiento plantea en Europa, en relación con las políticas universitarias y de investigación, estamos entendiendo algo como lo siguiente: es un tipo de sociedad en la cual la creación de conocimientos nuevos -y no sólo el tener conocimiento o experiencias, no sólo el generalizar un cierto nivel cultural, sino la maquinaria que permite aumentar el conocimiento de la realidad- es una de las fuentes principales de la riqueza y del bienestar social. Esto es la sociedad del conocimiento.

La sociedad del conocimiento viene naturalmente asociada a la sociedad de la información, dado que para poder generar conocimiento es necesario disponer de canales de información, mecanismos y procedimientos de almacenamiento de información mucho más ágiles y potentes que los disponibles tradicionalmente. Nuestras bibliotecas son antiguallas comparadas con las tecnologías de almacenamiento de información de las que dispone la sociedad del conocimiento. Lo cual no quiere decir que las bibliotecas no sean cosas maravillosas -de hecho, me encantan las antiguallas-, pero una sociedad del conocimiento no se puede basar solamente en bibliotecas, sino que debe estar conectada a la Red y a sus principales buscadores.

Esto es lo que hace que nuestras sociedades actuales sean realmente nuevas desde el punto de vista económico, social y cultural, así como político. Son realmente nuevas porque no siempre ha sido así: no siempre la fuente principal de bienestar y riqueza ha sido el conocimiento, más allá de que éste haya sido importante en las sociedades avanzadas. La presente importancia económica del conocimiento es fundamental.

Que el conocimiento sea una característica central de las sociedades actuales tiene implicaciones sobre la educación y sobre las políticas de investigación y desarrollo. Es evidente que si lo que importa es el conocimiento nuevo, entendiendo por éste no cualquier clase de conocimiento, sino el capaz de demostrar su valor porque realmente supone un mejor dominio de la naturaleza y de la realidad en general, es el conocimiento científico el que se convierte en el paradigma del conocimiento. Por tanto, no todo conocimiento, pero sí todo conocimiento valioso se mide con respecto al conocimiento científico.

Por consiguiente, si la generación de conocimiento es la fuente principal de la riqueza y del bienestar, las políticas de generación de conocimiento nuevo, es decir, las políticas científicas y tecnológicas, son uno de los ejes fundamentales de la organización política de estas sociedades. Pero aquí se da una primera paradoja: esa afirmación, que en teoría está muy clara y que debería ser un corolario obvio y evidente cuando se afirma que estamos en la sociedad del conocimiento, en la práctica, no es verdad. En la práctica, las políticas científicas suelen figurar en los programas electorales hasta el día de las elecciones y luego se olvidan.1

Ello, de manera paralela, tiene también incidencia en las políticas educativas, ya que el conocimiento es socialmente útil sólo si se difunde, es decir, si se comparte. Por cierto que esto no es imprescindible. Desde el punto de vista puramente teórico podría haber una sociedad en la cual unos cuantos fueran muy listos y tuvieran toda la información y el resto fueran imbéciles o ignorantes simplemente y, no obstante, esa sociedad podría producir muchos bienes y mucha riqueza. Pero ocurre que consideramos que esta situación es socialmente perniciosa, porque no permitiría al resto de la población, los pobres e ignorantes, poder tomar en sus manos su propio destino. Sería, por lo tanto, antidemocrático y antisocial, pero no sería anticognitivo: podría ser científicamente viable aunque fuera democrática y socialmente impresentable. Conviene tener esto en cuenta porque no cualquier modelo de sociedad científicamente avanzada es socialmente viable o democráticamente aceptable. Uno de los riesgos presentes en las sociedades del conocimiento es, justamente, que la población se desentienda de esas fuentes de riqueza y no se dé cuenta de que, de esa forma, también se desentiende de la capacidad de controlar el motor de la sociedad. Valga esto como apunte para una política científica y educativa con perspectiva democrática y social.

¿Cuáles son los problemas de Europa en relación con este escenario de lo que llamamos "sociedad del conocimiento", particulamente en relación con las políticas educativas y científicas? Sería interesante desarrollar una reflexión sobre los retos de la adaptación del Espacio Europeo de Educación Superior, el Proceso de Bolonia, en términos del riesgo que supone la mercantilización de la enseñanza superior, que siempre se debe tener en cuenta. Personalmente, sin embargo, discrepo con quienes afirman que ese sea el riesgo más importante. Tampoco estoy de acuerdo con que la mercantilización o la deriva mercantil de algunos servicios sea identificable necesariamente con la deriva capitalista. Hay elementos del mercado que pueden ser mercado justo -un mercado, digamos, aceptable- sin necesidad de implicar explotación.

Este aspecto es muy importante para la reflexión sobre las universidades modernas y el reto de Bolonia. Las universidades europeas tienen, entre otros, un problema: para competir con las americanas les falta pragmatismo. Es decir, les falta el afán de competir con todas las fuerzas, no solamente como una obligación secundaria, sino como una fuerza motriz fundamental. Muchas veces se justifica esta deficiencia considerando que en realidad eso no es más que una obligación del sistema capitalista mundial. No es verdad. No es una obligación del sistema capitalista mundial, sino una obligación del sistema global de la economía y de la sociedad actual, que es capitalista pero no solamente capitalista: tiene otros muchos elementos. Aunque tuviéramos actualmente una economía social en lugar de una capitalista, seguiría siendo necesario, para garantizar el progreso de la ciencia y la tecnología y -consiguientemente- el aumento del bienestar de la población, que las universidades europeas compitieran entre ellas por ser cada vez mejores, o por atraerse a los mejores científicos y estudiantes. Eso es algo que en Europa empezamos a ver claro. No obstante, lo vemos como una especie de condena que no hay más remedio que asumir, en vez de contemplarlo como un reto y una oportunidad que permitiría dar un salto cualitativo. En mi opinión, éste es uno de los grandes problemas de la forma en que Europa está respondiendo al reto de la globalización y la sociedad del conocimiento. Por cierto, ello no vale para las instituciones europeas, que lo tienen muy claro, pues todas las declaraciones doctrinales de la Comisión Europea van en esa dirección, pero sí se aplica para las realidades universitarias y sociales europeas, que tardan mucho en reaccionar ante esos retos.

Las universidades tienen una inercia mayor que la de una locomotora. Para cambiarles el rumbo se necesitan kilómetros y kilómetros de recorrido. Eso es lo que está pasando en la reforma del Espacio Europeo de Educación Superior. Es una reforma muy importante que va a tener consecuencias decisivas, pero la inercia del sistema es tan fuerte que hay que, por decirlo de algún modo, apuntar al objetivo con mucha antelación para ir desviándolo poco a poco y que el tren no descarrile. Ésta sería una buena metáfora para resumir mi opinión sobre cómo están respondiendo las universidades europeas al reto de la integración y a lo que denominamos el Proceso de Bolonia.

Es posible desarrollar otras reflexiones en esta misma dirección y en relación con la respuesta europea al reto de la sociedad del conocimiento. Tal es el caso de la propia organización de la investigación. Se impone tomar nota de que la estructura interna de la producción científica, así como los mecanismos sociales de su difusión y aplicación -esto es, de su transferencia a la sociedad- también están cambiando profundamente. Es muy usual entre los teóricos de la ciencia distinguir, con una expresión de la década de 1940, entre la pequeña ciencia y la gran ciencia: la primera es la ciencia del investigador en su laboratorio, mientras que la segunda es la ciencia del Proyecto Manhattan en Estados Unidos, desarrollado para ganar la guerra mediante la producción de la bomba atómica. El Proyecto Manhattan es el primer gran ejemplo industrial y político de organización colectiva y con métodos de gestión estrictamente racionales para conseguir que confluyan los esfuerzos de miles de científicos en un único objetivo aplicado y, además, con éxito. De ahí deriva la convicción de la que la ciencia necesita en gran escala de instalaciones, estructuras, equipos de colaboración y capacidades de gestión de todos esos recursos. Después de la guerra, la mayor parte de los políticos y los científicos había asumido decididamente el modelo de la gran ciencia.

En España, entre tanto, llegamos tarde tanto a la pequeña ciencia como a la gran ciencia. Sin embargo, y de alguna forma, en la década de 1980 se produjo una toma de conciencia acerca de la necesidad de recuperar el tiempo perdido y quemar etapas; fue así que, de golpe, en esa década se quemaron todas las etapas de la pequeña y la gran ciencia. Creo que aquella iniciativa, en la que Emilio Muñoz fue un gran protagonista, tuvo mucho éxito: el gobierno de entonces apostó claramente por que España entrara en el mundo de la ciencia moderna, con una política científica muy inteligente orientada a aumentar los recursos y, sobre todo, a incrementar la efectividad y la productividad científica del país.

Actualmente, sin embargo, el tema de la gran ciencia está quedando obsoleto. Estamos en una época diferente y debemos repensar cómo funciona la ciencia en una sociedad globalizada, cómo se produce y se transmite el conocimiento científico y qué problemas se plantean en estos procesos. Se trata de problemas completamente nuevos con respecto a los existentes hace no más de cuarenta o cincuenta años.

Para cualquier científico, y aún más para un político o para un filósofo de la ciencia, la distinción entre investigación básica, investigación aplicada, desarrollo tecnológico e innovación industrial es fundamental. En este sentido, el modelo lineal es el que ha inspirado todas las políticas científicas clásicas, incluso en la época de la gran ciencia. Pero en la actualidad se acepta ampliamente -lo saben sobre todo los gestores de la investigación, pero también van sabiéndolo los propios científicos- que las barreras efectivas entre unos campos y otros se están diluyendo ante nuestros ojos, aunque conceptualmente está muy claro qué es investigación básica y qué investigación aplicada. La mayor infraestructura científica de investigación puramente básica -incluso casi puramente especulativa y observacional- que hay en España, el Gran Telescopio de Canarias, financiado por todos los españoles, es de naturaleza tecnológica. Se trata de una estructura destinada a realizar investigación básica, cuyo objetivo es contemplar el cielo y hacer exactamente lo mismo que hacían los filósofos en la época de Tales de Mileto: ver estrellas y saber cómo es el mundo, el cielo, el cosmos. Este telescopio es realmente una fuente de conocimientos nuevos, y gracias a ellos, además de formarse científicos y de crearse otros nuevos, se genera tal cantidad de ideas, aplicaciones y demandas tecnológicas e industriales que se puede decir que se trata verdaderamente de una fábrica de innovación. Entre el 80% y el 95% del presupuesto del Gran Telescopio de Canarias está teniendo efectos sobre la innovación tecnológica en las empresas españolas. De manera que es una empresa tecnológica, e incluso industrial, aunque es ciencia básica. Así, el caso del Gran Telescopio de Canarias constituye un ejemplo representativo de lo que está pasando en todos los campos. Las fronteras tradicionales de los mecanismos de la producción científica se están diluyendo, lo cual no quiere decir que no existan, sino que se mueven, que están cambiando y que hay que saber pasar de una a otra con agilidad.

Cuando se habla sobre la relación entre ciencia e industria se suele reclamar que las empresas españolas aumenten su inversión en investigación y desarrollo y, a la vez, que las universidades trabajen y colaboren con las empresas. Hasta 1983 era ilegal que un investigador colaborase con una empresa. Sin embargo, ese año se produjo un gran salto adelante, gracias a la Ley de Reforma Universitaria y su famoso artículo 11, que legalizó la colaboración entre universidad y empresa. Ese artículo es hoy es el número 83 de la Ley Orgánica de Universidades, la cual está a su vez ante una nueva reforma. Es una reforma que va a dar otro salto, de modo que al investigador que haya logrado una innovación tecnológica que dé lugar a una empresa innovadora derivada de su investigación, le sea permitido dedicarse unos cuantos años a trabajar en esa empresa, a pesar de ser funcionario, para ayudar a poner en marcha el proyecto desde el punto de vista tecnológico. Se trata de una innovación fundamental que, más allá de no ser fácil de encajar en la estructura de la Administración Pública, constituye una respuesta a esas situaciones en las cuales las fronteras, no sólo académicas y disciplinares, sino también institucionales, se van diluyendo: la frontera entre la investigación básica que se hace en una universidad y la aplicación tecnológica que se hace en una empresa vinculada a ese proyecto de esa universidad. El paso entre una y otra es tan difícil de establecer que la única forma de facilitarlo es permitiendo que el propio cerebro del innovador pueda traspasar esa frontera. El paso, por cierto, debe tener también un camino de vuelta establecido, para evitar que el investigador no se atreva a irse.

Por su parte, la frontera entre las ciencias y las humanidades también se está diluyendo, aunque no nos demos cuenta. Todos los días aparece en la prensa especializada y en la generalista la ruina de las empresas del sector audiovisual y del entretenimiento; es inevitable, por culpa de Internet. Las tecnologías de la información están cambiando el contenido y la posibilidad de promover y difundir actividades culturales puras, humanísticas de toda la vida: música, teatro, danza, ópera, literatura, libros. Como sabemos, todas ellas están hoy sometidas a una convulsión como consecuencia de las repercusiones jurídicas, sociales y culturales que tienen las tecnologías de la información, de manera que las humanidades no se libran de la sociedad del conocimiento. Sin embargo, la sociedad del conocimiento también necesita el cultivo de lo que tradicionalmente se llamaba conocimiento humanístico, es decir, el cultivo no solamente del conocimiento científico y tecnológico, sino también de aquellas formas de conocimiento que ayudan a entender para qué se quiere usar el conocimiento científico y tecnológico y por qué es valioso.

Hay otras fronteras que se están difuminando: la de la ciencia local, la nacional, la global. No existe ya una ciencia nacional, y menos local. ¿Hay producción local de ciencia global? Sí. ¿Hay difusión local de ciencia global? Sí. Pero la tecnología y la ciencia son globales, es decir, se pueden producir y aplicar en cualquier parte. Uno de los motores fundamentales de la producción de software en el mundo está actualmente en la India. A su vez, Irlanda dio el salto en la modernización de sus estructuras productivas de la ciencia y la tecnología en gran parte gracias al software y a las tecnologías de la información. La movilidad aparece como una de las consecuencias de esta globalización. La ciencia actual se basa en redes de investigación no localizables y en movimientos migratorios mucho más intensos que en cualquier otro sector de la actividad social. Ello fue siempre así, por cierto, pero ahora se da de una forma mucho más activa y mucho más rápida. Otra de las características de estos procesos es la concentración de recursos, un rasgo heredado de la gran ciencia. Muchos componentes de la investigación científica y tecnológica actual requieren unas instalaciones y una concentración de recursos inaccesibles para cualquier país, ni siquiera para los más grandes del mundo. Requieren, por lo tanto, la cooperación internacional. Véase, por ejemplo, el último caso importante en el que España trabajó duro y en el que ha conseguido posicionarse con éxito: el Proyecto ITER, que constituye el gran proyecto de investigación sobre energía de fusión que se radicará en Francia, pero cuya sede de la dirección de gestión para Europa estará en España.

Estos retos y novedades requieren respuestas ágiles y nuevas. En la década de 1980 intentamos construir soluciones para una situación que no estaba tan claramente definida como la actual. Así, dimos respuestas que permitieron la modernización y el despegue de la investigación científica y tecnológica en España. Desde entonces hemos ido acumulando experiencia, percibiendo nuevos retos y ensayando nuevas respuestas. Es el momento de dar un segundo salto: el de la internacionalización y el de la inserción del sistema de ciencia y tecnología de España en el nuevo escenario de la sociedad del conocimiento, un escenario global y no solamente europeo.

Entre los retos que se deben enfrentar en tal sentido se encuentra el de aumentar la inversión en investigación y desarrollo. Europa afronta el desafío de llegar hasta el 3% del producto interior bruto. España está aún atrasada en relación con esa meta (invirtió el 1,13% en 2005) y, por lo tanto, debe antes alcanzar la media actual de esfuerzo en I+D de la Unión Europea (2% del producto interior bruto), que el objetivo que el Gobierno se ha marcado para 2010. Para tal fin, la presente administración española se comprometió a incrementar el esfuerzo en I+D en un 25% anual. Ello se ha cumplido -excepto en el primer año, dado que el gobierno acababa de asumir- y al final de la legislatura la media habrá aumentado como mínimo un 25% anual. Esto supone un esfuerzo inmenso para una economía como la española. No obstante, ¿por qué ese esfuerzo no se nota? Probablemente los tiempos de la política y los tiempos de la ciencia no van siempre acompasados, aun cuando se intente acompasar los segundos a los primeros, que al fin y al cabo son también los de la opinión pública. Se puede tomar como ejemplo el programa de grandes infraestructuras. La construcción del Gran Telescopio de Canarias se inició hace más de diez años y su inauguración se prevé para 2008 (si bien en 2007 el telescopio verá su "primera luz técnica"). Eso significa que el rendimiento político se producirá dentro de dos años, aunque la gente haya tenido que esperar doce para poder ver el resultado de un inversión pública enorme.

Paralelamente, se aprobó un plan de grandes infraestructuras tecnológicas y se negociará en el seno de la Unión Europea para lograr que se instale en España la fuente europea de neutrones por espalación, una instalación científica internacional que dará servicio a investigadores y tecnólogos de todo el continente. Si esto se lograra, será necesario gastar miles de millones de euros y esperar quince años para su puesta en marcha. Por otro lado, hace dos años se puso en marcha la Plataforma Mare Nostrum, uno de los tres o cuatro computadores más potentes y rápidos del mundo, radicado en España y financiado con dinero de los españoles; la plataforma está en fase de aprobación y se espera que produzca grandes resultados científicos. También dentro del plan de infraestructuras, en Salamanca se instalará en breve uno de los centros de láser más potentes del mundo, una gran instalación destinada no sólo a grupos españoles, sino también a los de toda Europa. Estas obras implican millones de inversión y un largo plazo de espera hasta que se puedan ver concretadas. No obstante, ese es el esfuerzo que reclama la ciencia actual.

Junto con mayores infraestructuras, debemos también dar respuesta a necesidades mucho más perentorias. Se requiere, por ejemplo, una actividad científica más intensa y, a la vez, más científicos trabajando. Un científico no se forma fácilmente y tampoco se integra de manera fácil en el sistema. En ese sentido, uno de los problemas del sistema público español es su rigidez. En el sistema privado, por su parte, más que rigidez existe cierta parálisis: todavía no se cuenta con un nivel de esfuerzo en I+D adecuado a los retos que debemos asumir. Sin embargo, dado que esto es un ciclo que tiene mucho que ver con la rentabilidad económica de la I+D, creo que en poco tiempo el sistema productivo va a tomar nota de las señales de estabilidad y de confianza que el gobierno está emitiendo y se va a lanzar al apoyo de la I+D. En ese sentido, creo que vamos a tener un incremento de gastos y de inversión en I+D en el sector productivo, lo cual también permitirá incorporar a muchos investigadores en el sistema de ciencia y tecnología.

El sistema público, como he señalado, es un sistema muy rígido para la incorporación de investigadores jóvenes y para la renovación generacional. Es necesario, entonces, encarar acciones para mejorarlo. la Ley Orgánica de Universidades, de próxima aprobación, incluye medidas que van a permitir que las universidades públicas, si lo desean, puedan ser mucho más ágiles y actuar de forma mucho más eficiente y segura en la gestión de recursos personales para la I+D.

Finalmente, existen dos aspectos que también considero importantes. En primer lugar, es necesario mejorar la disponibilidad de fondos, especialmente para grandes proyectos en los grupos de investigación. Ello implica la modernización del sistema de gestión de esos fondos, así como aumentar la cantidad de recursos, superando los que actualmente tenemos. Con tal intención, en 2006 se ha puesto en marcha una experiencia, el Programa Consolider, por el cual por primera vez hay diecisiete grandes grupos de investigación, que en conjunto incluyen cientos de científicos, que van a disponer de financiación estable y muy cuantiosa durante un periodo de cuatro o cinco años. Ello permitirá producir un efecto de masa crítica para la generación de grandes proyectos de investigación, lo cual hasta ahora no era fácil. En segundo lugar, la nueva ley de agencias va a permitir mejorar las estructuras de gestión. En este sentido está previsto crear en 2007 una Agencia de Financiación, Evaluación y Prospectiva de la Investigación Científica y Técnica que modernice la gestión de los programas y permita afrontar los nuevos retos que el Plan Nacional de I+D 2008-2011 plantea. Con estas medidas intentaremos entusiasmar nuevamente a la comunidad científica, algo para lo que vendría muy bien la ayuda de todos.

Reflexiones2

España en el proceso de Bolonia

España es miembro de la Unión Europea y, por lo tanto, está realizando una política europea. El proceso de Bolonia no consiste en que Europa dicta lo que España debe hacer, sino, en cambio, en que todos los países deciden que quieren hacer lo mismo. La política científica europea consiste en que todos los países realizan un esfuerzo de incremento del gasto y de flexibilización de sus sistemas de gestión y de mejora de estructuras; es eso lo que España está haciendo. Considero que hay un equívoco con respecto al proceso de Bolonia: se suele pensar que es algo que Europa impone a España. Por el contrario, se trata de un acuerdo de los estados miembros, que hemos decidido homogeneizar nuestro sistema de reconocimiento de títulos para facilitar la movilidad, la calidad y la mejora de los sistemas universitarios europeos. Y España es parte de este proceso. Los retos mencionados anteriormente con respecto a la ciencia y la tecnología en la Europa de la sociedad del conocimiento son comunes a todo el continente. La diferencia está en que, en algunos casos, es España la que debe hacer un esfuerzo suplementario con respecto a otros países; sin embargo, a la vez hay otros países que tienen que hacer un esfuerzo suplementario con respecto a España. Debemos acostumbrarnos a pensar así: somos parte de Europa, somos Europa. El país está en la Unión Europea desde 1986 y actualmente es una parte importante de ella: valemos mucho en Europa y nuestros ingenieros valen en Europa, así como los ingenieros europeos valen en España. Cada vez más.

Investigación transnacional e investigación regional

Una de las diferencias en la situación actual con respecto a la de 1986 es que ahora la totalidad de las Comunidades Autónomas tienen planes de innovación y de I+D, junto con programas de financiación de proyectos, becas, políticas científicas, etc. Ello es un avance enorme. Pero así como existió la tentación de hacer una política científica nacionalista -al hablarse, por ejemplo, de una "ciencia española", una fiebre que ya no tenemos pero de la cual aún quedan ramalazos- con las regiones también podría llegar a suceder que se ponga el énfasis en lo que ha sido llamado el plazo político, frente al plazo científico. Se corre entonces el riesgo de que se ponga el énfasis en la clientela propia y se olvide que el ámbito de actuación de la política científica es global. Si bien se trata de un problema, también existen indicadores que muestran una mejor dirección: por caso, los sistemas de evaluación que usan prácticamente todas las regiones españolas -incluyendo Andalucía, aunque actualmente cuente con una agencia propia- son sistemas de evaluación de proyectos de carácter nacional e internacional, con agencias evaluadoras como la ANEP, la ANECA, etc. En ese sentido existe un componente no regional, sino global. Los proyectos de infraestructura mencionados anteriormente tienen carácter multirregional: en ellos interviene la Comunidad Autónoma junto con el Estado español, y cuentan incluso con financiación europea. De manera que, si bien hay una tendencia a la regionalización y el localismo, existe también una tendencia hacia la integración global. Personalmente, espero que ganen éstas últimas.

El sistema británico de "pay back" en las universidades

El sistema británico es tan útil que será puesto en marcha en España en 2007. Se trata de un sistema de préstamo/renta, es decir que el estudiante puede solicitar un préstamo sin interés y con el aval de su propio expediente académico. Las condiciones de amortización dependen de la situación económica del estudiante a lo largo de su vida: paga el préstamo solamente cuando está ganando dinero como para poder devolverlo de manera proporcional a lo que gana. Es por ello que se los llama "préstamos vinculados a la renta". Si bien para el estudiante puede ser más cómodo el sistema de beca tradicional, éste tiene un componente de injusticia, en la medida en que no llega a cubrir la financiación de los gastos indirectos del estudiante. El sistema de préstamo/renta, en cambio, puede ser más generoso en ese sentido y resulta mejor para, por ejemplo, financiar gastos derivados de la movilidad del estudiante.

No obstante, estudios realizados a nivel internacional han detectado una dificultad en este sistema: las clases menos pudientes tienen más aversión al riesgo y, por lo tanto, les cuesta más pedir un préstamo que disfrutar de una beca. Así, un préstamo implementado para facilitar la equidad termina por beneficiar finalmente a quienes no lo necesitan. Es por ello que estamos estudiando estas dificultades, a fin de lograr efectividad en un "mercado estudiantil" como el de España. Se trata, pese a todo, de una idea interesante y, por lo tanto, vamos a intentarla sin renunciar a las becas tradicionales.

Cabe aclarar que las universidades británicas no se financian solamente a través de las cuotas de sus estudiantes, sino que reciben también financiación pública directa. En España, desde luego, no se va a revisar el sistema de financiación pública directa. Recientemente hemos aprobado los límites para los precios públicos en las universidades españolas para los estudios oficiales, y son como han sido siempre. Pero pensamos que el sistema de becas no cubre todo el gasto que el estudiante debe hacer para poder estudiar. El estudiante debe pagar su matrícula y, junto a ella, otros gastos de su vida; incluso si tiene que moverse a una residencia fuera del hogar familiar, esto segundo es mucho más importante que la matrícula. El sistema de becas actual, salvo en casos límite de rentas muy bajas, no cubre más que una parte de los gastos indirectos. El sistema de préstamo/renta permite mejorar eso y, por lo tanto, aumentar la equidad, puesto que puede cubrir una mayor parte de los gastos indirectos independientemente del nivel de renta de la familia del estudiante.

Los valores en la sociedad del conocimiento

La relación entre sociedad de conocimiento, valores humanísticos no utilitaristas y formación del ciudadano crítico y abierto a todas las sociedades es muy importante y no está excluida de mi planteamiento. Lo que caracteriza a la sociedad del conocimiento es que la generación de conocimientos nuevos es el motor fundamental para el aumento de la riqueza y del bienestar social. Pero hay muchos tipos de riqueza y muchas formas de distribuir la riqueza. Considero que en una sociedad con valores vinculados, por ejemplo, a la tradición socialdemócrata -esto es, una sociedad con unos valores de solidaridad-, la riqueza se empleará de tal forma que mejore la vida de los ciudadanos y contribuya a la igualdad. Pero en otras sociedades se usará de otra forma. No estoy de acuerdo con la idea de que la globalización aumenta necesariamente la desigualdad. El aumento de la desigualdad no está en la lógica interna de la globalización, sino en la del capitalismo mundial. Si logramos introducir otra lógica podemos usar los mismos instrumentos para un fin distinto. Tampoco estoy de acuerdo con la idea de asociar globalización, capitalismo, desigualdad, ciencia, tecnología, cultura occidental, todo ello en un mismo saco, porque entonces si se deseara ser honesto, socialdemócrata, anticapitalista, igualitarista, etc., deberíamos ser anticientíficos y antioccidentales, lo que carece de sentido. Las ideas de la socialdemocracia, del progreso social, de la igualdad social, tales como las vivimos las personas de mi generación, se han originado en la cultura occidental. Es la misma cultura que produjo la ciencia y la tecnología modernas, la Ilustración, el socialismo, el pensamiento democrático radical y, en fin, muchos de los valores que considero universales. Lo interesante de estos valores es que son compatibles con otras culturas y con otras religiones, al igual que la ciencia es compatible con cualquier otra tradición.

Cuando decimos que en la sociedad del conocimiento debemos asumir estos retos, tenemos que ser muy conscientes de que ello es posible. Debemos usar el conocimiento en una dirección acorde con nuestros valores. Que el conocimiento sea producción y sea fuente de riqueza no es incompatible con que sea el origen de la liberación del espíritu humano, si queremos decirlo así. No veo contraposición entre una cosa y otra. Sé que ésta no es la visión estándar actualmente, pero lo siento por la visión estándar: están equivocados.

Investigación e industria

Hoy en día hay pocos investigadores que alardeen de que lo suyo no sirve. Actualmente se da más bien lo contrario. La investigación básica es bienvenida, pues es sabido que sirve como base para la investigación futura. En sí misma no tiene por qué tener aplicación directamente. Sin embargo, en las memorias de cualquier proyecto de investigación -e incluso las de investigación más básica, como astronomía y astrofísica- hay siempre dos secciones: una que pone el acento en la importancia del proyecto para la industria española, bien sea por sus aplicaciones, bien sea por la demanda de innovación que requieren; la otra sección, que va siendo cada vez más usual y tiene que ver con la anterior, enfatiza la importancia del proyecto para la cultura científica del país, a través, por ejemplo, de la difusión de los resultados para que el público más amplio los entienda.

Por cierto, hace veinte o treinta años era difícil que los investigadores entendieran ambas dimensiones. Incluso había alguno que tenía a titulo de gloria el "no, yo no quiero saber nada de la industria o de las aplicaciones de mis investigaciones", y no digamos el "yo no quiero saber nada de la divulgación científica y la información científica", que incluso consideraban un demérito. Actualmente la inmensa mayoría ya no lo dice, y se asume que es algo políticamente incorrecto. Por lo tanto, algo está cambiando, y es de esperar que cambie mucho más en la buena dirección.


Notas


* El presente texto se basa en una ponencia pronunciada en el encuentro "La Europa del conocimiento: educación e investigación", organizado por la Fundación Sistema y celebrado en Salamanca en julio de 2006. Una versión de esta presentación se publicará en las Actas del Encuentro.
** El autor es actualmente Secretario de Estado de Universidades e Investigación del Ministerio de Educación y Ciencia de España.
1 Por cierto, la primera vez que en España se incluyó a la política científica en un programa electoral fue en 1982, con el Programa Electoral del Partido Socialista. Antes de esa fecha ni siquiera figuraba en los programas electorales.
2 En esta sección se han seleccionado algunos fragmentos del diálogo que mantuvo el autor con el público asistente al encuentro.



QUINTANILLA, Miguel Ángel. La investigación en la sociedad del conocimiento. Rev. iberoam. cienc. tecnol. soc., Ciudad Autónoma de Buenos Aires, v. 3, n. 8, Apr. 2007 . Available from . access on 20 June 2010.


.

sábado, 19 de junio de 2010

Cómo cortar una torta en tres

.


por Adrián Paenza




Le propongo pensar el siguiente problema: se tiene una torta y tres personas para comerla. Ninguno quiere comer menos que los otros. No hay forma de “medir” para saber con exactitud cómo generar tres porciones iguales, por lo que hay que elaborar una estrategia que permita que los tres queden satisfechos. ¿Cómo hacer?

Antes de avanzar: este problema, que parece totalmente irrelevante, puede adquirir impensada actualidad. Por ejemplo, si tres países se disputaran una porción de tierra, ¿cómo hacer para dividirlo de manera tal que no se genere un conflicto entre ellos?

O bien podría ser que hubiera que dividir una herencia entre tres personas y se trata de poder hacer una distribución que los deje contentos a los tres.

Estoy seguro de que usted puede aportar más y mejores ejemplos. Pero lo que surge de estos casos es que lo que parece totalmente inocuo e irrelevante, en realidad, lo es dentro del contexto de tener que cortar una torta, pero puesto en otro escenario, en otras condiciones, tener una estrategia que satisfaga a todos los que intervienen ya no es algo tan trivial. Y aunque no lo parezca en la percepción que tiene hoy mucha gente, elaborar esa estrategia también es hacer matemática.

El problema de la torta es un clásico dentro de la matemática. Hay mucha literatura escrita y hay soluciones de diferente tipo. Yo voy a presentar acá sólo uno de ellas, que no es ni la mejor ni la única. Es sólo una de las tantas conocidas. Y, por supuesto, no es una idea mía, sino una respuesta que se conoce desde hace mucho tiempo.

Antes de dejarla/o sola/o con usted mismo, quiero proponerle –para empezar– que piense un problema un poco más sencillo. Es muy parecido al problema original, sólo que en lugar de suponer que hay tres personas para comer, suponga que en principio hay sólo dos. Es decir, se trata de dividir la torta en sólo dos porciones que dejen contentos a los comensales.

La idea es tratar de cortarla de manera que la división sea “justa” en el sentido de que ninguno de los dos tenga nada para decir. ¿Cómo hacer?

La solución a este problema es relativamente sencilla (¿quiere pensarla usted por su lado si no estaba advertido del problema?).

Sigo yo: la idea es que uno de los dos se ocupe de cortarla en dos partes y el otro comensal decide con cuál de las dos porciones se queda. Esta parece una solución justa, equitativa: “uno corta, el otro elige”.

Ahora, vuelvo al problema original: si en lugar de ser dos comensales, hay que distribuirla entre tres, sin que ninguno pueda reclamar nada, ¿cómo hacerlo?

Acá lo dejo pensar a usted. Se trata entonces de ser capaz de elaborar una estrategia que deje contentos a todos. No es fácil. Pero tampoco imposible.


Solución

Voy a llamar A, B y C a los tres comensales.

Le pido un favor: lea con cuidado lo que sigue y no se conforme con entender lo que dice nada más. Piense si usted está de acuerdo con lo que está escrito, y si lo siente o percibe como una división justa.

Para empezar, uno de los tres corta la torta. Le damos esa responsabilidad a A.

Como A es el que la cortó, y se supone que lo hace con el mayor cuidado posible, tratando de ser justo en la división, uno podría dejarlo para el final cuando haya que elegir.

Es decir: una vez que hayan elegido sus porciones B y C, A se quedará con la última. Y eso no tendría que generarle ningún conflicto, porque A debió tomar todas las precauciones como para que, en el caso de que él fuera el último en elegir, todos los trozos que él hizo de acuerdo con su apreciación sean iguales.

Esto es importante de señalar, porque la discusión entonces pasará por saber qué hacen B y C con la torta. En este punto uno toma una decisión: ¡A será el último en elegir! Ahora, sólo falta decidir si B o C eligen primero.

La estrategia sigue así.

Lo dejamos a B que mire primero la torta. Si B supiera que él va a ser el primero en elegir, entonces no debería preocuparle si la división que hizo A de la torta fue justa o no. B elegiría primero y listo. Pero todavía no lo sabe. Entonces, como podría ser que B tuviera que elegir segundo, uno le propone que siga estos dos pasos:

1 Si B ve que hay dos porciones igual de grandes, como para que si él tiene que elegir segundo no se tenga que quedar con una porción más chica, no debería importarle dejarlo elegir primero a C.

Entonces, en este caso, el orden de la elección es:

primero elige C

segundo elige B

último elige A

2 Podría pasar que B no estuviera cómodo eligiendo segundo, porque él piensa que C se va a quedar con la porción más grande. Es decir, B advierte que hay una porción más grande que las otras dos y, por lo tanto, si él tiene que elegir segundo supone que C se va a llevar la mejor parte. En este caso, uno le pide a B que marque las dos porciones que él considere más chicas y que le ceda la decisión de qué hacer a C.

Pero C –obviamente– no elige primero, sino que inspecciona la torta como hizo antes B. Si él se siente cómodo con elegir segundo (o sea, a C le parece que hay por lo menos dos porciones igualmente grandes y por lo tanto no le importaría que B elija antes), entonces, el orden es el siguiente:

B elige primero

C elige segundo

A elige último

Pero podría suceder que así como le pasó a B (que tuvo que marcar las dos porciones más chicas), a C le pase lo mismo. O sea, que él no quiera elegir segundo. ¿Por qué podría pasar esto? Porque C cree que hay una porción que es más grande que las otras, y si él elige segundo, B se la va a llevar. Entonces, igual que en el caso anterior, uno le pide a C que marque las que él cree que son las dos porciones más chicas.

Un breve resumen. Se llegó a esta situación porque tanto B como C no quisieron aceptar elegir segundos, y eso derivó en que marcaran lo que para cada uno de ellos eran las dos porciones más chicas.

Como cada uno marcó dos de las tres porciones, esto significa que debieron coincidir en al menos una de ellas como la más chica (piense usted por qué sucede esto).

Y ahora ya falta muy poco. Justamente esa porción que los dos coinciden en ver como la más chica es la que separan y le dan a A.

Obviamente, A no puede decir nada, porque él fue el que cortó la torta originalmente.

Ahora, quedan solamente dos porciones. Pero, también, solamente quedan dos comensales: B y C.

Entonces se juntan las dos porciones, como si formaran una nueva torta, y proceden como en el caso de dos comensales que planteé al principio. Por ejemplo B corta por lo que él considera que es la mitad, y C es el que elige primero. O al revés: C corta en dos, y B elige primero.

Y esto pone punto final a la distribución. No importa cómo hayan sido los cortes originales de A, la estrategia pone a los tres en igualdad de condiciones. Y de eso se trataba, de evitar un conflicto y de ser justo en la repartición.

Este modelo de la matemática es obviamente utilizable en cualquier situación que requiera de una partición en tres partes iguales en la vida cotidiana.

Pregunta final: si en lugar de haber dos o tres comensales hubiera más... ¿cómo se hace? ¿Hay una estrategia para esos casos también?

La respuesta es que sí, que la hay, pero ya escapa al espacio que tengo para este artículo.



Diario Página12 22/3/2009.-


.

Carlos Marzal en nuestro rincón poético

.



El pozo salvaje




Por más que aburras esa melodía
monótona y brumosa de la vida diaria,
y que te amansa;
por más lobo sin dientes que te creas;
por más sabiduría y experiencia y paz de espíritu;
por más orden con que hayas decorado las paredes,
por más edad que la edad te haya dado,
por muchas otras vidas que los libros te alcancen,
y añade lo que quieras a esta lista,
hay un pozo salvaje al fondo de ti mismo,
un lugar que es tan tuyo como tu propia muerte.
Es de piedra y de noche, y de fuego y de lágrimas.
En sus aguas dudosas
reposa desde siempre lo que no está dormido,
un remoto lugar donde se fraguan
las abominaciones y los sueños,
la traición y los crímenes.
Es el pozo de lo que eres capaz
y en él duermen reptiles, y un fulgor
y una profunda espera.
Es tu rostro también, y tú eres ese pozo.

Ya sé que lo sabías. Por lo tanto,
acepta, brinda y bebe.



.

La teoría de juegos no es un juego

.


por Alejandro Moledo

Dialogo con Alejandro Neme, matemático.
UNSL - Universidad Nacional de San Luis



–Bueno, usted es investigador del Conicet, matemático de la Universidad de Ciencias Físico Matemáticas y Naturales de la Universidad de San Luis y director del Instituto de Matemática Aplicada. Cuénteme primero qué es ese instituto que usted dirige.

–Es un instituto creado por un convenio entre la universidad y el Conicet hace casi 26 años.

–¿Y qué se investiga?

–Hay cuatro grandes proyectos teóricos (uno un poco más aplicado): dos de matemática y dos de física. El proyecto que yo dirijo se centra en la teoría de juegos.

–Entonces hábleme de teoría de juegos.

–Un modelo matemático que estudia todas las situaciones de conflicto, donde hay que tomar decisiones y la decisión de la otra persona influye en el resultado. En general, nuestra fuente de modelos y ejemplos es la economía. La teoría de juegos ha tomado ya un conocimiento bastante popular por la película Una mente brillante, que cuenta la historia de un matemático, Nash, que incursionó en la economía resolviendo problemas que habían resultado irresolubles hasta el momento. Junto a Morgenstein, son considerados los padres de esta disciplina.

–Bueno, y ¿cuáles son los problemas que encaran ustedes?

–Uno de ellos es el problema de asignación bilateral. Uno tiene dos conjuntos de agentes que deben decidir y deben asignarse unos con otros. El ejemplo típico está en el ingreso a las universidades europeas. Allí, cada estudiante tiene una nota que hace que la universidad tenga un ranking, y de acuerdo con ese ranking se define qué carreras pueden hacer y en qué universidad pueden estudiar (para que no se superen los cupos). Entre estudiantes y universidad hay que hacer la mejor asignación posible. Estos problemas surgieron con las residencias de los médicos en Estados Unidos: los hospitales quieren residentes porque son mano de obra barata y, a su vez, los residentes quieren ir al mejor hospital porque eso va a condicionar su futuro. Esta gama de la matemática-economía últimamente se está aplicando en las listas de asignación de trasplantes de riñón, en Estados Unidos, que admite donantes vivos. Cada riñón tiene diferentes compatibilidades con las personas, y de acuerdo con ellas se establecen órdenes. Hay un método para asignar a cada donante alguien que admite ese riñón. Y es un sistema muy complicado, porque muchas veces hay familiares que quieren donar a su propio familiar, pero no son compatibles. Entonces este familiar se ofrece a donar su riñón si su familiar recibe un riñón a cambio:a cada paciente un riñón.

–¿Y estos sistemas se usan?

–Sí, en Estados Unidos, por ejemplo, para lo que le venía contando. Como le dije, esto surgió con los médicos residentes. Se le pidió a un investigador (que todavía vive) que centralizara la asignación entre médicos residentes y hospitales, porque la sociedad médica lo veía como un caos total. Y cada vez se complicaba más, porque los hospitales se peleaban entre sí para conseguir residentes. Se necesitaba una nueva metodología para que no pudiera pasar que un estudiante que fuera enviado a un hospital se tuviera que cambiar a otro porque no lo conformaba. De ahí surgió el tema.

–¿Y para los trasplantes de riñón?

–Es muy nuevo el problema, pero se está investigando. El mismo investigador, Alvin Roth, está tratando de solucionarlo.

–¿Ustedes trabajan estos mismos problemas?

–Bueno, tal vez en un plano más teórico, que es un paso previo a su aplicación práctica. Muchas veces, cuando surgen los problemas, se diseñan para explicar situaciones. Cuando uno las puede entender, puede incorporar metodología para mejorar el sistema. En este momento yo tengo un profesor visitante español que ha hecho aportes al sistema de asignación alumnos-universidades en España. No es que él lo haya diseñado, pero muchos investigadores proponen mejorar la tecnología.

–Porque cada problema genera problemas periféricos.

–Claro. Además, en cada universidad el problema es distinto. Un muchacho de nuestro grupo, por ejemplo, utilizó esta problemática para pensar en la relación profesores-aulas en una universidad de Río Cuarto. Por suerte, es un método que no supone un gran riesgo (no es como el caso de los riñones). Pero, como le decía, nuestra investigación se da en un plano teórico.

–Claro, lo que pasa es que, en cierta medida, todo aquel que estudia teoría de juegos tiene en la cabeza situaciones del orden de lo práctico.

–Sí...

–¿Hay algo más que me quiera contar?

–Un poquito de historia, tal vez. Nuestro instituto nace hace algo más de 25 años, con Ziomarchi, que se doctoró en San Luis con el director de tesis de Selten (uno de los premios Nobel de Economía). El fue a Princeton con Morgenstein en un ambiente que estaba lleno de premios Nobel (matemáticos o economistas). Ahí están nuestras raíces.


Diario Página12 4/12/2009.-


.