Archivo de la categoría: Sin categoría

Intoxicación por ricina #QuímicaDeBreakingBad1

Breaking Bad - Veneno Mortal

 

*Esta entrada NO CONTIENE spoilers de la serie Breaking Bad, NINGUNA de las referencias explícitas a la serie o sus personajes desvela parte o totalidad de la trama.

 

Todos los seriéfilos conocen de la habilidad del Dr. Walter White para sintetizar compuestos químicos altamente puros que sobrepasa la realidad. Bajo un conocimiento tremendamente amplio en química inorgánica y una técnica impecable, al protagonista de Breaking Bad lo mismo le da trabajar hasta tarde para producir metanfetamina en una caravana que en obtener  un explosivo o tóxico para salir de alguno de sus típicos apuros.

 

En varios capítulos, el Dr White propone a su compañero de fechorías – el narcotraficante Jesse Pinkman – envenenar a algún capo de la droga con ricina. ¿Cómo? Muy fácil, aunque se trate de dos moléculas completamente distintas, los polvos de ricina y los de metanfetamina son indiferenciables a simple vista. Así pues, algo tan común o usual como la distribución de droga entre la competencia puede acabar con un fatal desenlace si se mezclan ambas sustancias.

En esta entrada vamos a ver que es la ricina, su fabricación y su efecto. También nombraremos algunos de los usos o potencialidades que tiene.

 

La ricina es una proteína extraída de las semillas de la planta de Ricino - Ricinus communis -. Aunque su proceso de extracción tiene una patente, el método es muy parecido al de de otras proteínas, por ejemplo la de la planta de soja. El producto final es un polvo fino de color blanco, inodoro e insípido. Como podréis comprobar en la serie, es una sustancia totalmente irreconocible de la metanfetamina.

 

Castor beans are photographed December 16, 2010 in New York City. The beans, also known by its scientific name of Ricinus communis, are the main ingredient in making the poison ricin. (Photo illustration by Yvonne Hemsey/Getty Images)

Semillas de ricino.

 

La toxina de la que hablamos es una proteína de unión a ribosoma que lo inactiva. El ribosoma es el orgánulo encargado de la fabricación de otras proteínas para la célula, de manera que cuando queda completamente bloqueado por causa de la obstrucción de la ricina se inhibe la síntesis proteica.

A nivel fisiológico los primeros efectos notables de su ingesta son vómitos, diarrea y deshidratación. ¿A qué se deben? El hígado no podrá sintetizar las proteínas que se encargan de los procesos básicos de digestión por lo que todo lo ingerido se rechaza sin ser completamente digerido. La deshidratación es un efecto secundario a los dos primeros síntomas que hemos comentado.

 

Ribosoma procesando una hebra de ARN.

 

Los efectos no son los mismos cuando se inhala puesto que las células expuestas – por tanto, las afectadas – pertenecen a otros órganos y tejidos. Su aparición se hace incluso todavía más notable, en un período de hasta 6 horas después de administrarse se puede desarrollar tos con sangre debido a la disfunción alveolar producida en todo el sistema respiratorio.

Si bien hasta aquí parece que tenemos indicios de una gripe común – en lo que refiere a su ingesta – pasados tres o cuatro días y si el paciente no ha fallecido se acusarán los primeros síntomas a la par que aparecerán hemorragias intestinales. Normalmente, la intoxicación por ricina suele causar la muerte antes de los diez días.

 

Estructura de la ricina.

 

La dosis mortal de ricina para un humano puede extraerse de entre 4 y 8 semillas, siendo mortal en todas sus posibles formas de administración. No existe antídoto conocido, a pesar de que hace unos años se desarrollara un método para producir la antitoxina, la patente fue retirada después de su proceso de fabricación se pusiera en duda.

Sorprendentemente, la toxina del ricino se está probando como uso médico en el tratamiento del cáncer y en el desarrollo de vacunas. También ha sido utilizada en el presente y último siglo como arma química.

Así pues, aunque la cara angelical del Sr Walter White diga todo lo contrario, el químico más afamado de las series americanas sabía lo que se traía entre manos. Si queréis saber más sobre esta historia y como acaba este baile de moléculas os recomiendo que veáis la serie. Son 5 temporadas repletas de guiños químicos y un argumento envolvente del que no os podréis deshacer.

 

Walter White con un vial de ricina. 

 

 

***NOTA IMPORTANTE: LA FABRICACIÓN DE METANFETAMINA Y/O RICINA ES UNA ACTIVIDAD ILEGAL.

 

Post escrito por Adrián Villalba, estudiante de Bioquímica y colaborador en blog AlbaCiencia.

 

 

Además añadir:

“Esta entrada participa en el XXXIX Carnaval de Química alojado en el blog ‘gominolasdepetróleo‘”

 

Una paloma cuántica que yo tenía

inicial2Ha salido otro artículo en el que se muestra que la cuántica tiene la dichosa manía de patear nuestro sentido común.

Esta vez es el turno del principio del palomar.

En esta entrada vamos, en un primer paso, a refrescar nuestra memoria acerca de este principio, muy brevemente porque hay sitios donde ha sido tratado mucho mejor de lo que podríamos hacerlo aquí.  Posteriormente discutiremos el artículo colgado en arXiv:

The quantum pigeonhole principle and the nature of the quantum correlations (El principio del palomar cuántico y la naturaleza de las correlaciones cuánticas)

donde se describe como la cuántica desafía este maravilloso principio matemático.

Sigue leyendo

El Arte de la Química y viceversa

Después de un pequeño parón, en el que he podido leer opiniones contra la Ciencia y el aparente mundo individual y sectario en el que la colocan, vengo con una entrada en la que se vuelve visible la unión entre Ciencia y Bellas Artes.

En concreto, voy a hablaros del estudio de restauración que se llevó a cabo en el Reina Sofía cuando uno de los cuadros más representativos de nuestro país pudo llegar a tierras españolas. Normalmente, los trabajos de restauración están dirigidos y llevados a cabo por profesionales del Arte pero ¡todo es química! tanto las técnicas y métodos analíticos como los productos usados para la restauración. Creo que sólo hay una facultad en Italia en la que se prepara a licenciados en Química para acometer dichos menesteres, pero que lo realicen profesionales de Bellas Artes no hace más que confirmar la universalidad y belleza de mi querida química. No me enrollo más.

Vamos a sumergirnos entre las capas del Guernica de Pablo Picasso, ¿qué os parece?.

Este estudio me fascinó y me ayudó a valorar muchísimo más el arte pictórico y el Arte, en general. Ya no sólo era un cuadro con un significado u otro, con una belleza extraña o cercana, un trabajo visto por encima en asignaturas de Humanidades. No, desde ese momento, mi fascinación por cada pincelada, por la consecución de cada pigmento, del acabado,…, creció y pasó a ser algo palpable, la representación más bella que, usando químicos naturales y de síntesis, un artista pudo plasmar. Espero que el estudio os guste y miréis las obras desde otro punto de vista más.

Historia

Pablo Picasso recibió un encargo por parte del Gobierno de la II República en 1937. Se iba a celebrar una exposición internacional en París y su obra sería un cartel destinado a exponerse en el Pabellón Español. Al principio, Picasso no estuvo entusiasmado con la idea aunque realizó diversos bocetos preparatorios para realizar un alegato contra la barbarie, el terror y la guerra (sin que ninguno de los elementos posteriores del cuadro formaran parte de ellos), pero un acontecimiento cambió su forma de pensar.

Ese motivo no fue otro que la noticia de los bombardeos efectuados por la aviación alemana sobre la villa vasca (del mismo nombre), conocidos por el artista a través de las dramáticas fotografías publicadas en L’Humanité y otros diarios franceses. Estos luctuosos hechos dieron forma al Guernica que conocemos: concebido como un gigantesco cartel, testimonio del horror que supuso la Guerra Civil Española, así como la premonición de lo que iba a suceder en la II Guerra Mundial.

La sobriedad cromática, la intensidad de todos y cada uno de los motivos y la articulación de los mismos, determinan el extremado carácter trágico de la escena, que se iba a convertir en un emblema de los desgarradores conflictos de la sociedad de nuestros días.

guernicacuadro

Aunque el cuadro era propiedad del Estado Español, Picasso decidió que quedara bajo la custodia del MoMA de Nueva York hasta que finalizara el conflicto bélico.

En 1958, renovó el préstamo por tiempo indefinido hasta que se estableciesen las libertades democráticas en España. Finalmente, el Guernica llegaría a nuestro país en 1981, año en el que se analiza de forma exhaustiva. Este proceso es el que vamos a ir desgranando a lo largo de la entrada.

Informe sobre el estado de conservación

El estudio se realizó para poner de manifiesto el estado de la obra y las consecuencias de un hipotético traslado (otro más a la lista) de la misma.

En primer lugar, se hace una referencia especial a las intervenciones que ha sufrido, tanto las de montaje y desmontaje llevadas a cabo como consecuencia de los diversos traslados, como las de consolidación y restauración que ese mismo devenir hicieron necesarias.

A continuación se procede a realizar un análisis del estado material de la obra, tanto por lo que respecta a una concisa descripción de la misma, basada en análisis químicos y radiográficos, como a su estado de conservación.

Intervención en la obra

En el año 1957, en el MoMA se restaura para tratar un problema con el reverso. Al variar la temperatura, la cera presente en el lienzo se licuaba y salía por la parte pintada.

Por ésto y el proceso de enrollamiento y desenrollamiento en su traslado (algo que no se debe hacer nunca), los conservadores tomaron la decisión de someter al cuadro a un proceso de restauración consolidando toda la superficie, ya que presentaba problemas y daños generalizados: desprendimientos de color, arrugas y grietas. Para ello, se trató el reverso del cuadro con una mezcla de cera y resina fundidas para fijar el color.

Además, se colocaron bandas de tela, unidas también al soporte original con cera-resina fundida para proceder de nuevo al tensado del lienzo sobre el bastidor.

En 1962, se limpió la superficie pictórica con agua destilada (procedimiento en desuso en la actualidad puesto que muchos pigmentos son de origen natural y solubles en agua) y se barnizó con PARALOID-72, un barniz acrílico que cambia el indice de refracción evitando que los pigmentos, al incidir la luz en ellos, amarilleen.

Dos años después, 1964, se vuelve a consolidar el reverso con papel japonés y poliacetato de vinilo para repasar fisuras en la obra.

En 1974, la obra sufre un ataque con pinturas. Aparecen frases insultante en una longitud de 75 cm. Se empleó xileno como disolvente y se retocó con pintura acrílica. La parte afecta, además, fue barnizada con PARALOID-70.

En 1981, el Guernica llega a España y se le somete al estudio que vamos a ir desgranando y completando con datos posteriores, obtenidos en 1997, último gran estudio de esta obra.

Descripción material de la obra

Pintura sobre un lienzo de 775 x 350 cm. clavado a un bastidor de madera con 20 crucetas unidas por cuatro tornillos cada una. El actual bastidor sustituyó al original en 1964.

Análisis químicos

Una técnica básica como la microscopía óptica proporciona información sobre la morfología de partículas y estructuras, bien sobre las capas de pintura (a la hora de identificar pigmentos o caracterizar la superposición de capas) como para ofrecer información sobre el soporte.

La identificación de las fibras del soporte se realiza mediante el examen microscópico de muestras tomadas en ambos sentidos de la tela. Se identificaron:

  • Lino (como componente de las fibras dispuestas en el sentido horizontal): por análisis morfológico como por ensayos microquímicos con el reactivo Schweitzer, el cual se obtiene por reacción in situ de amoniaco con sulfato cúprico. Se observan dislocaciones transversales o nódulos de la fibra característicos de ese material.
  • Yute (en las muestras de la posición vertical): El color magenta obtenido al realizar el ensayo de florglucina en medio clorhídrico pone de manifiesto un alto contenido de lignina de esta fibra.
  • Lino y algodón en las bandas de refuerzo colocadas en el MoMA para reforzar bordes.

En los análisis realizados en preparación y capa pictórica se han utilizado distintas técnicas

  • microscopía óptica
  • microscopía electrónica de barrido
  • espectroscopía IR por transformada de Fourier
  • cromatografía de gases.

Examen Óptico

El examen con microscopio óptico (técnica basada en la interacción de la radicación con la materia) se realiza a pequeñas muestras incluidas en una resina con base metacrilato de metilo.

Con este método se identifican algunos pigmentos, contando con la ayuda de ensayos microquímicos. Una primera observación al microscopio permite comprobar que el lienzo fue preparado con una capa de cola animal sobre la que se aplicó imprimación blanca.

Se analizaron un total de ocho muestra (M1-M8) del lienzo.

DSC_0013

En la muestra M1, se observa una superposición correspondiente al negro de la pezuña del toro y se pone de manifiesto la existencia de una zona translúcida de 30µ, una capa blanca con un espesor entre 30-110µ, una capa intermedia grisácea de 30-60µ y una capa negra de 15-20µ. Con ésto, estamos “viendo” las pinceladas de Picasso.

Estratigrafía7(estratos de pinceladas en la M7)

En las estratigrafías de todas las muestras (M1-M8) se observa esa capa translúcida de espesor variable y naturaleza orgáncia que estaría situada en contacto con el lienzo.

La tinción microquímica con FOCUSINA (Fusina) (rosanilina + pararojahilina), que es un polvo verde soluble en agua y alcohol, revela la presencia de esa cola animal, pues el reactivo genera un compuesto rojo con las proteínas. Por tanto, esa primera capa translúcida queda definida como la COLA ANIMAL que recubre todo el cuadro.

No obstante, en la M3 no sólo hay presencia de esa cola animal, sino que la microquímica sólo cubre una parte de esa muestra acotada, parte que corresponde al uso de un producto para la consolidación de la capa pictórica. El cuadro revela una de sus anteriores restauraciones.

En la M4 (en la zona derecha de la flor) también se aprecia esa capa de consolidación y una sóla capa blanca de 125-170µ. Aunque, como veremos más adelante, esta muestra revelará una sorpresa.

muestra4

(capa blanca de la M4)

En la M6, gris (debajo de la pezuña del toro), la microscopía óptica muestra la superposición de capas: la de cola animal de 25-50µ, capa blanca de 35-150µ, una gris oscura de 25-85µ, otra clara de 0-50µ y una finísima capa negra de 10µ. Además, de observarse una de las fisuras que sufrió la obra.

Ahora bien, para caracterizar la superficie de la muestra se recurrió a la Espectroscopía Electrónica de Barrido

Concretamente, se trabaja a un microscopio electrónico acoplado a un Detector de Rayos X (DRX). Por dispersión de energía, este examen permite un análisis puntual muy preciso de los elementos que forman parte de la muestra para completar los datos obtenidos con la técnica analítica anterior. Las imágenes correspondientes a la retrodispersión de electrones permite analizar los distintos elementos presentes en las partículas.

Por ejemplo, en la M6 se pudo apreciar con total nitidez la ruptura en la capa pictórica a la que nos referimos con anterioridad.

IMG_20140704_124207[1] IMG_20140704_124237[1](microscopías electrónicas de la M6)

Yendo a los resultados globales, en la capa blanca se constató la presencia de

  • BaSO4
  • 2PbCO3·Pb(OH2) blanco de plomo
  • CaCO3
  • trazas de SiO2 procedentes de la presencia de CaS04·2H2O

(capa blanca)

En la capa gris superior, se identifican azufre y calcio del sulfato cálcico, Zinc, blanco de Zinc (ZnO), el fósforo de Ca3(PO4)2 propio de resto de huesos y bario asociado a BaSO4.

capagris

Y en la negra: Ca3(PO4)2, identificándose así el negro de huesos.

¿Recordáis la muestra M4? Pues, con ésta técnica, se observa que son dos capas diferenciadas y no una sólo:

IMG_20140703_135719

En la inferior, están presentes los compuestos globales, aunque el CaSO4·2H2O está enmascarado por la presencia de azufre en el espectro.

En la superior, NO se detecta presencia de plomo, pero sí la de zinc (blanco de zinc) y del óxido de aluminio.

En la M8, se pone de manifiesto la diferencia entre la preparación y la capa pictórica.

IMG_20140703_135622

Lo que varía son las proporciones presentes en los diferentes pigmentos naturales blancos y negros para conseguir el resultado cromático deseado.

Los pigmentos naturales son orgánicos e inorgánicos y para obtener la información de la estructura molecular se emplea la Microespectroscopía IR por transformada de Fourier.

Tranquilos, explico:

La espectroscopía IR se basa en el hecho de que los enlaces químicos de las sustancias tienen frecuencias de vibración específicas, que corresponden a los nieveles de energía de la molécula. Si la molécula recibe luz con la misma energía de esa vibración, entonces la luz será absorbida si se dan ciertas condiciones.

Para que una vibración aparezca en el espectro IR debe someterse a un cambio en su momento dipolar durante la vibración. Las frecuencias vibracionales de resonancia son determinadas por los modos normales correspondientes a la superficie de energía potencial del estado electrónico estándar. Cada grupo funcional, asociado o no a otros, se verá caracterizado con esta técnica de determinación estructural.

En la espectroscopía IR se transmite un rayo monocromo a través de la muestra y se registra la cantidad de energía absorbida. Repitiendo esta operación en un rango de longitudes de onda de interés, se puede construir un gráfico. Esta técnica funciona casi exclusivamente en enlaces covalentes y se usa mucho en química orgánica.

Las muestras sólidas se preparan mezclando una cierta cantidad de muestra con una sal altamente purificada (KBr). Esta mezcla se tritura y se prensa con el fin de formar una pastilla por la que pueda pasar la luz, debe ser translúcida.

Por transformada de Fourier, se guía la luz a través de un interferómetro. Después de pasar por la muestra, la señal medida da el interferograma. Se origina un espectro idéntico al de la espectrometría IR convencial, sólo que ésta es dispersiva: el haz se divide en dos y, antes del detector, pasa por un separador procedente -de manera alterna- de la muestra y la referencia).

En el interferograma de la capa de preparación se observan las bandas de

  • BaSO4 a 1176, 1083, 983, 634 y 611 cm-1
  • 2PbCO3·Pb(OH2) a 3541, 1409 y 681 cm-1

IMG_20140703_135254

Como podréis apreciar, el IR de la muestra engloba tanto el espectro correspondiente al sulfato de bario como al blanco de plomo, superpuestos individualmente.

En el de la muestra tratada durante el proceso de consolidación se aprecia una banda de tensión característica del CO a 1710 cm-1, que es propia de la cera de abeja (con resina natural) utilizado.

IMG_20140703_135133

(los grupos funcionales tienen, como dijimos anteriormente, unas determinadas vibraciones y siempre saldrán en un rango determinado del espectro IR. En el supuesto de encontrarnos con un ácido, a la señal de C=O se vería una banda ancha característica de los -OH. Por ésto, el espectro de IR es muy útil para la caracterización de compuestos, sobre todo orgánicos)

Además, el espectro IR de la capa exterior incolora presenta bandas características del recubrimiento acrílico aplicado como barniz protector.

IMG_20140703_135048

Para una comprobación de los resultados, se recurre a

Cromatografía de gases

Una técnica analítica que requiere la separación y cuantificación de los compuestos químicos individuales. En ella, la muestra se volatiliza y se inyecta en la cabeza de una columna cromatográfica y se miden los tiempos de retención. La elución se produce por el flujo de una fase móvil que es un gas inerte, y a diferencia de la mayoría de los tipos de cromatografía, la fase móvil no interacciona con las moléculas del analito; su única función es la de transportar el analito a través de la columna.

Las muestras del Guernica, en concreto, se derivatizaron con una metilación directa (adición de Meth-Prop II en benceno)  puesto que se analizan los ésteres metílicos de los ácidos grasos. Se obtienen señales importantes correspondientes a:

  • ácido azelaico (A)
  • ácido palmítico (P)
  • ácido esteárico (S), señales que nos indican la presencia de un aceite secante que por la proporción P/S nos lleva a un aceite de lino como aglutinante.

GC1guernica

Para el análisis de la cera, la identificación fue de los ácidos grasos con átomos de carbono pares (14:00 y 32:00) y por los hidrocarburos impares C23-C33. Indica que es cera de abeja a la que se le añadió una proporción de resina triterpénica.

CGresina(cromatograma de la muestra en el que se destaca el rango correspondiente a los compuestos orgánicos)

Informe Final

¿Sabéis que se concluyó en el informe sobre el estado del Guernica a fecha de 1981?

Que presentaba un estado lamentable y se prohibía su movilización, enrollamiento y posibles viajes, puesto que era muy sensible (a la situación se le suma su gran área) a las variaciones de humedad, vibraciones y golpes.

Las condiciones a las que debía conservarse fueron fijadas en

  • humedad relativa del 50% 2%
  • temperatura 20 2 ºC
  • iluminación por debajo del los 150 lux

Y que necesitaba una nueva restauración para:

  • eliminar el exceso de cera.
  • sujetar el lienzo al bastidor con un sistema de antivibración
  • reponer el material en algunas zonas
  • limpiar los pelos presentes en la parte externa del cuadro.

Los resultados del último gran estudio que se hizo en 1997 y que complementa el informe del 81, aconsejaba “desde el punto de vista de su conservación, no debe volver a exponerse la obra a ningún tipo de movimiento o traslado fuera de las salas del Museo”.

A día de hoy (creo no equivocarme), los permisos para la restauración que necesitaría no están aprobados. Ojalá, no pase mucho tiempo hasta que el Guernica pueda volver a mostrarse en un buen contexto y en perfectísimas condiciones.

Y hasta aquí el viaje por el interior de un cuadro, ¿os imagináis sumergiros así en una obra de renombre y poder visualizar todo su proceso de creación? Cada pigmento, cada capa,…

Posiblemente, otro día, hablemos de esos colorantes naturales que, gracias a la química, llenaron y llenan nuestra Historia de color.

El mecanismo de Higgs para estudiantes de bachillerato I

Mucho se ha hablado del mecanismo de Higgs para dotar de masa a las partículas. Pero cuando uno intenta acercarse a este tema se topa con dos dificultades básicas:

a)  El lenguaje y la notación que emplean los físicos en su quehacer diario.

b) La impresión de que todo lo relacionado con la física teórica de vanguardia tiene que ser terriblemente complicado desde el punto de vista matemático.

Sin embargo, soy de la opinión de que hay algunos temas, evidentemente no todos, que pueden ser explicados a nivel de instituto con las herramientas matemáticas del bachillerato.   Este ejercicio me parece interesante por varias razones, entre ellas está que el estudiante pierde el miedo a enfrentarse con conceptos físicos elevados y por otra parte porque puede ver en acción las cuestiones matemáticas que está estudiando.

En las dos siguientes entradas espero que cualquier profesor de física de bachillerato pueda encontrar un material interesante para echar un rato con sus estudiantes charlando y trabajando de verdad cuestiones relativas al bosón de Higgs y de su significado.  Que hable de simetrías, de roturas de simetrías y de generación de masas.  Lo más difícil desde el punto de vista técnico matemático será calcular unos mínimos de una función de una variable (que resultará ser polinómica).

El punto clave está en presentar el tema explicando la notación, perdiéndole el respeto y jugando con las fórmulas sin ningún tipo de complejo.

Espero que esta entrada sea del gusto de algún profesor y que, si así lo considera oportuno, la use en sus clases cuando guste.

Tengo que decir que yo no he dado clases a estos niveles así que sed benevolentes conmigo porque la intención es buena.

Sigue leyendo

Cognición, inteligencia y el apocalipsis

El otro día tuve la suerte de acudir a la fantástica charla de Helena Matute (@HelenaMatute) sobre los aspectos psicológicos de la interacción entre humanos y robots. Si no pudiste verla, aquí puedes encontrar un extracto de la misma (se espera que se publique la charla completa en breve). Después de la charla, tuvimos una interesante discusión en Twitter sobre varios de los temas que aparecieron en la charla: cognición, inteligencia, aprendizaje…

Con esta entrada pretendo superar la frustración de los 140 caracteres y ofrecer algunas claves desde el punto de vista de la Inteligencia Artificial para que estas discusiones, lejos de terminar, puedan seguir estando muy vivas. Vamos allá.

El primer gran problema que suelo encontrar en estas discusiones es el uso de palabras y conceptos abstractos como cognición, inteligencia, aprendizaje, emociones y etc. Es muy díficil poder definirlos con exactitud, por lo que suele costar mucho ponerse de acuerdo sobre lo que se le exige a alguien o algo inteligente. Es por ello que he acudido a la Wikipedia a mirar cómo definen cognición

En principio la cognición (del latín: cognoscere, ‘conocer’) se define como la facultad de un ser vivo para procesar información a partir de la percepción, el conocimiento adquirido (experiencia) y características subjetivas que permiten valorar la información. Consiste en procesos tales como el aprendizajerazonamientoatenciónmemoria,resolución de problemastoma de decisiones y procesamiento del lenguaje.

En esta definición ya hay varias claves interesantes. Se habla de procesar información a partir de la percepción, la experiencia y características subjetivas. También se establece que la cognición engloba temas tales como el aprendizaje, razonamiento, atención, memoria etc. Cabe preguntarse si esas capacidades ya están en manos de las máquinas. Y la respuesta es que sí.

Cognición artificial

No voy a empezar a argumentar que cada uno de los aspectos que se mencionan en la definción de la cognición ya tienen su análogo artificial. Se necesitarían muchas entradas para hacerlo. De todas formas, sí quisiera comentar algunas, más que nada para intentar eliminar esa aureola de magia y misterio que siempre rodea al tema de la cognición, el pensamiento y la inteligencia.

Empecemos por el razonamiento. Hay varias formas de razonamiento, tales como razonamiento inductivo, deductivo o abductivo. Sin meternos en cada una de ellas, nosotros sabemos que las personas se mueren. Si alguien nos dice que Fulano es una persona, razonamos inmediatamente que Fulano es mortal. Este tipo de razonamientos han sido muy estudiados desde la antigua Grecia y fueron el primer caballo de batalla de la Inteligencia Artificial. Ni que decir que hoy en día, hay miles de formas de implementar sistemas artificiales de razonamiento.

Se habla también de resolución de problemas. El ejemplo que me suele gustar dar es el de jugar al ajedrez. Al jugar al ajedrez, en cada movimiento estamos resolviendo un problema, buscando la mejor solución a la situación en la que nos encontramos. Lo que estamos haciendo, al fin y al cabo, es buscar en un espacio de soluciones. Cada movimiento de cada pieza, es una solución, y todas ellas conforman el espacio de las soluciones. Tenemos que ser capaces de evaluar cada una de esas soluciones y tomar la mejor decisión. Obviamente, si lo hacemos uno a uno, tardaríamos infinito tiempo, ya que cada movimiento puede desencadenar millones de posibilidades, y eso crece de manera exponencial. Por eso, aplicamos heurísticos, que no son más que funciones que nos permiten acotar el espacio de búsqueda. Pues bien, esos algoritmos de búsqueda con heurísticos han sido implementados en muchas máquinas para muchos própositos diferentes. Como ejemplo, el algoritmo de búsqueda de caminos del coche de Google, que ya explicamos aquí.

Finalmente, un tema que me apasiona: el aprendizaje. Una vez más, un concepto abstracto con el que es difícil lidiar. Una de las cosas buenas de la ciencia respecto al lenguaje natural, es que intenta definir los conceptos de forma inequívoca. Cuando se habla de aprendizaje artificial o aprendizaje automático, normalmente se acude a la definición dada por Tom Mitchell. Viene a decir que un programa P aprende de la experiencia E respecto a una tarea T y una métrica de rendimiento R, si su rendimiento a la hora de ejecutar la tarea T, medido por R, mejora con la experiencia E. Claro y conciso, ¿verdad?

El aprendizaje automático hoy en día está ya muy extendido entre nosotros. Nuestro correo eléctronico hace uso de aprendizaje supervisado para distinguir entre correo spam y correo bueno. Facebook, etiqueta a personas detectando sus caras, usando de nuevo técnicas de aprendizaje supervisado. Los astrónomos recurren a técnicas de aprendizaje no-supervisado para analizar los millones y millones de imágenes que sacan sus telescopios y buscar galaxias, clusters, nebulosas y otras estructuras en esas imágenes. Vamos, que no hay nada mágico en el aprendizaje.

Bueno, me equivoco, detrás de todo esto está la magia de las matemáticas. El aprendizaje supervisado no es más que encontrar el (hiper-)plano que divide en un espacio multi-dimensional de características calculadas sobre imágenes u otras entradas, entre aquellos puntos que pertenecen a una clase (por ejemplo, cara) y los demás. El aprendizaje no-supervisado trata de agrupar puntos en un espacio de similitud, formando grupos de puntos que se parecen mucho.

Turing y el cambio de paradigma

Para enfocar mejor la discusión, que ya existía desde mediados del siglo pasado, fue Alan Turing el que planteó un cambio de paradigma. La gente no dejaba de preguntarse si las máquinas podrían llegar a pensar. Turing se dio cuenta de lo difícil que resultaba medir la capacidad de pensar, por lo que cambió la pregunta que debíamos hacernos: ¿pueden las máquinas hacer lo que hacemos nosotros?

Esto no es un truco semántico. La pregunta de Turing nos permite medir y comparar máquinas con seres vivos. Tomemos alguna tarea que un ser que consideramos inteligente pueda realizar. Elijamos la tarea que nosotros creamos que no sería capaz de realizar si no fuera inteligente. Bien, si alguna máquina es capaz de realizar esa misma tarea, debemos concluir que el proceso que le ha llevado a realizarla, contiene algun rasgo de inteligencia.

Cuando hablamos de tareas, nos referimos tanto a las físicas como navegar de un punto a otro o preparar la mesa para comer, como a las más mentales como reconocer caras, probar teoremas etc.

En esa línea va el famoso test de Turing. Seguramente la conoceréis como el test que propone a una persona mantener una convesación con alguien desconocido. La persona en cuestión no sabe si el que está hablando con él es otra persona o una máquina. En el caso de que sea una máquina, si al final de la conversación la persona no es capaz de adivinarlo, tenemos que concluir que la máquina es inteligente.

Natural VS artificial

Esta batalla entre lo natural y lo artificial es muy conocida en muchos campos. Como en esos muchos campos a los que me refiero, seguramente llegará el día en el que en el campo de la inteligencia también carecerá de sentido hablar de lo natural y lo artificial (es solo mi opinión).

De todas formas, hay corrientes que creen que la inteligencia artificial debe imitar la inteligencia natural. Esto, por si solo, no conlleva ningun problema. La cuestión es que mucha gente llega a la conclusión de que la inteligencia artificial solo podrá ser considerada inteligencia en tanto en cuanto copie nuestros procesos naturales. Esto contraviene el paradigma de Turing.

La inteligencia artificial ha demostrado poder realizar tareas inteligentes siguiendo caminos diferentes al nuestro. Esto no implica que no se deba intentar replicar nuestros procesos cognitivos, por dos grandes razones:

  1. Ello nos permitiría entender mucho mejor nuestros procesos cognitivos.
  2. Seríamos capaces de crear máquinas inteligentes, ya que nosotros, lo somos.

En este sentido, os recomiendo la lectura de esta entrada de Helena Matute sobre aprendizaje natural y artificial, la forma en la que se entrelazan y sacan provecho el uno del otro. En esa entrada se da con una de las claves de nuestra inteligencia: la rapidez de adaptarnos a nuevos contextos, con la capacidad de aprender con gran flexibilidad.

Ya en la charla Helena comentó que nuestros sesgos cognitivos son el precio a pagar por esa flexibilidad, que es clave a la hora de sobrevivir en un entorno como el nuestro. De allí, se concluía que si las máquinas implementaran esa flexibilidad, estarían abocadas a tener esos mismos sesgos cognitivos. Yo matizaría esta afirmación: si las máquinas implementan nuestros mismos procesos cognitivos para alcanzar esa flexibilidad, entonces tendrán nuestros mismos sesgos cognitivos. Pero, ¿no se puede alcanzar la misma flexibilidad con procesos diferentes?

más allá de la inteligencia humana

Por mucho que la tradición sitúa la inteligencia en nuestro encéfalo, aspectos como la percepción y la capacidad de acción moldean la inteligencia de forma definitiva. Es decir, nuestra inteligencia no sería la misma si en vez de ojos y visión, solo tuviéramos oídos. Todas estas herramientas han sido moldeadas por la evolución, a través de eones. El resultado es maravilloso.

Pero no nos engañemos: la evolución no es un buen ingeniero. Por mucho que nos maravillemos, nuestros ojos son soluciones parcheadas de ojos que se desarrollaron para entornos acuosos. Nuestra columna vertebral es otro parche para una solución bípeda que parte de una solución para animales de cuatro patas. La evolución no genera soluciones óptimas, solo soluciones aceptables. ¡Y no es poco!

Nosotros, en cambio, somos muy buenos ingenieros. Es verdad que los robots aun parecen torpes, limitados en sus tareas y en su flexibilidad y les cuesta realizar tareas que nosotros ya realizamos con 3 años. Pero nosotros somos fruto de millones y millones de años de evolución. La robótica y la inteligencia artificial nacieron ayer.

Sin embargo, con todos los avances que hemos realizado, ya se puede vislumbrar que las máquinas del futuro no solo nos van a igualar, sino que nos van a superar. En vez de ver solo la luz visible, podrán ver en infrarrojos o en cualquier otro lado del espectro. Podrán usar sensores activos como láseres y ultrasonidos, sacar provecho de toda la infraestructura TIC que hemos desarrollado con satélites, Internet, computación en la nube, grandes repositorios de datos etc. Podrán comunicarse entre ellos a una velocidad que nosotros no podemos.

Para muestra un botón: el proyecto RoboEarth. En él, varios grupos de investigación de Europa (entre ellos la Universidad de Zaragoza), han desarrollado el Internet de los robots. Cuando un robot aprende a realizar una tarea, lo sube a un repositorio común, donde se especifican los modelos para reconocer objetos, los pasos a dar para completar esa tarea, las capacidades que se necesitan, aspectos importantes del entorno etc. Otro robot, en otra parte del mundo, con un cuerpo y capacidades diferentes, es capaz de bajarse toda esa información cuando se encuentre ante la necesidad de realizar esa misma tarea. Si durante la realización de esa tarea aprende y descubre algo nuevo, lo comparte, mejorando/completando el conocimiento del repositorio común. Es algo parecido a lo que hacían en Matrix para aprender a conducir un helicóptero, ¿verdad? Pero con robots.

Otro ejemplo: Watson de IBM. Capaz de entender el lenaguaje natural y aprender de la interacción con los humanos. Ya está aprendiendo aspectos relativos a la medicina y la fisiología humana. Propone diagnósticos y tratamientos basándose en su conocimiento enciclopédico, al que un humano no puede aspirar. Pero también está aprendiendo de finanzas. ¡Ojocuidao!

Todos estos ejemplos son todavía prototipos. Puede que en aspectos generales no estén a nuestra altura: no son tan inteligentes como nosotros. Pero es cuestión de tiempo. Como bien dijo Helena al final de su charla, estos robots, estas máquinas inteligentes, van a llegar. No se sabe cuando, pero van a llegar. Nos corresponde a nosotros decidir cómo queremos que sean. Y no deberíamos esperar mucho tiempo para empezar a decidirlo.