Archivo del Autor: Filotecnóloga

Historias de Transistores, Silicios y Nanotubos

De las válvulas al Silicio

La electrónica está cambiando el mundo. El transistor es uno de los grandes inventos de la humanidad…y no me refiero a las arradios payo ;). Me refiero a esa pequeña pastilla de semiconductor que mató a la estrella de la válvula. Que sí, que la válvula mola, pero en los amplis de instrumentos.

Historias de válvulas. Válvula electrónica, termoiónica o de vacío. Se trata de un componente electrónico que amplifica, conmuta o modifica una señal eléctrica mediante el control del movimiento de los electrones en un espacio “vacío” a muy baja presión, o en presencia de gases especialmente seleccionados.

La electrónica de mediados del siglo XX se desarrolló gracias a las válvulas. Teléfono, radio, televisión, computadores….La revolución tecnológica fue explosiva. Pero nada comparable a la revolución de los transistores. Gracias a ellos y a la miniaturización que permiten, tenemos en nuestro smartphone una capacidad de procesado increíblemente superior a la de aquellas viejas computadoras antevintage que ocupaban metros y metros cuadrados. Con unos pocos Hz de velocidad de procesador llegamos a la Luna y ahora tenemos poder de GHz en nuestras manos. No te despeines.

Historias de semiconductores. Para conducir la corriente, en las válvulas se utiliza el vacío, en los transistores se utilizan semiconductores. Un semiconductor es un elemento que se comporta como un conductor o como aislante dependiendo de diversos factores, como por ejemplo el campo eléctrico o magnético, la presión, la radiación que le incide, o la temperatura del ambiente en el que se encuentre.

gapLa banda de valencia es el mayor intervalo (bandas) de energía electrónica que alcanzan los electrones en el cero absoluto. La banda de conducción es la que permite las corrientes eléctricas, y se encuentran por encima de las bandas de valencia, tienen mayor nivel energético. En los metales no hay ningún intervalo de energías prohibidas entre las bandas de valencia y de conducción. En los semiconductores y en los aislantes, en cambio, aparece una banda prohibida –gap- por encima de la banda de valencia, seguida de una banda de conducción a energías aún mayores.

La mayoría de los transistores utilizan como semiconductor el Silicio, que tiene un sistema de cristalización tetraédrico similar al del Carbono, mediante enlaces covalentes entre sus átomos. Aunque pueden existir otros materiales semiconductores, generalizaremos con el Silicio por mayoría aplastante de tecnologías. Con las moléculas cristalizadas del Silicio se obtienen unas  nanoestructuras, nanocables. Cuando el cristal se encuentra a temperatura ambiente algunos electrones pueden absorber la energía necesaria para saltar a la banda de conducción dejando el correspondiente hueco en la banda de valencia. El Silicio requiere una energía  de 1,12 eV  a temperatura ambiente. Obviamente el proceso inverso también se produce, de modo que los electrones pueden caer, desde el estado energético correspondiente a la banda de conducción, a un hueco en la banda de valencia liberando energía. Este proceso se llama recombinación. A una determinada temperatura, las velocidades de creación de pares electrón-hueco, y de recombinación se igualan, de modo que la concentración global de electrones y huecos permanece constante.

Historias de corrientes. Los electrones y los huecos son los portadores, y ambos contribuyen al paso de la corriente eléctrica. Si se somete el cristal a una diferencia de potencial se producen dos corrientes eléctricas.

Por un lado la debidesquema energeticoa al movimiento de los electrones libres de la banda de conducción,

Por el otro la debida al movimiento de los huecos; los electrones al desplazarse en la banda de valencia tenderán a saltar a los huecos próximos, originando una corriente de huecos en la dirección contraria al campo eléctrico de velocidad y magnitud muy inferior a la de la banda de conducción.

FET, MOSFET, CMOS..Historias de Transistores.

transistor MOSFET

Los transistores son dispositivos de estado sólido en los que un campo eléctrico controla el flujo de portadores en un canal de conducción. Pueden funcionar como fuentes dependientes de corriente (amplificadores, electrónica analógica) o como interruptores controlados (electrónica digital). Un transistor, por tanto, es una puerta que une dos nanocables.

Los primeros transistores fueron los de efecto de campo, FET. Son unos dispositivos electrónicos con una resistencia de entrada infinita. Los FETs son unipolares debido a que utilizan un solo tipo de carga para transportar la corriente y son controlados por voltaje. En los transistores FET la puerta es una capa de óxido (SiO2), en ambos lados: fuente y sumidero.

La patente  del principio básico de los FET la inscribió  Julius Edgar Lilienfeld en 1925. Famoso no se hizo el muchacho, porque estos transistores de efecto de campo no tuvieron demasiada relevancia. Los laboratorios Bell desarrollaron los MOSFET, y llegaron a un acuerdo con Julius, del que no se saben los términos.

La puerta del FET estaba hecha con un material metálico, Aluminio.  hasta que a alguien se le ocurrió añadir una capa de metal a continuación de la capa de óxido, modificando la puerta. Fue entonces cuando aparecieron los MOSFET, FET de tipo Metal-Óxido-Semiconductor. Si además añadimos, justo antes de llegar a la puerta, una pequeña zona de Si dopado tenemos MOSFET tipo n o tipo p, dependiendo del tipo de impureza que añadamos al Silicio.

La corriente eléctrica que atraviesa la nanoestructura de material semiconductor (Si) se encuentra justo antes de la puerta con una pequeña zona de Silicio con impurezas, que es la que está en contacto con una primera puerta de óxido (SiO2), y a continuación una segunda puerta de metal. Este nuevo diseño resultó extremadamente compacto, condición sine qua non para la integración de circuitos…. Y la integración de circuitos es lo que nos ha permitido tener en una mano más potencia tecnológica que en un centro de cálculo de hace unas décadas.

En un MOSFET por lo tanto la fuente emite portadores (electrones o huecos), el colector hace de sumidero de esos portadores e intercalada entre ambos está la puerta, que modula el paso de los portadores. El sustrato semiconductor tiene tres partes dopadas artificialmente (contaminadas con materiales específicos en cantidades específicas).  Un MOSFET tiene dos uniones bipolares, que son las uniones entre una zona p y una zona n.

En los MOSFET de canal n, la fuente S y el colector D son regiones fuertemente dopadas difundidas en un sustrato de tipo p. Una compuerta conductora G (Gate) se aísla del Silicio mediante una fina capa de SiO2.  Durante el funcionamiento ”normal activo” una tensión positiva es aplicada entre la fuente y el sustrato, lo cual produce una atracción de los conductores de la fuente y el colector creando un canal de conducción entre ellos. Se produce un enriquecimiento de carga negativa.

En los MOSFET de canal p se produce un enriquecimiento de carga positiva. Para ello se intercambian los materiales n y p con respecto a los de canal n. En consecuencia, la dirección de la corriente y las polaridades de las tensiones se ven invertidas. Por ejemplo, para que exista un canal, en un MOSFET de enriquecimiento canal p, la tensión de compuerta debe ser lo suficientemente negativa.

MOSFET P MOSFET N

Hoy la mayoría de los circuitos se construyen con tecnología CMOS (Complementary MOS) . Esta tecnología consiste en unir dos transistores MOSFET de manera complementaria y asimétrica. El diseño consiste en dos MOSFET diferentes, de canal n y de canal p, que se complementan mutuamente y consumen muy poca corriente en funcionamiento sin carga. Los Semiconductores tipo n han sido dopados con elementos que aumentan el número de electrones, en los los semiconductores de tipo p las impurezas hacen aumentar el número de huecos.

Historias de nanómetros y de límites físicos

Las tecnologías CMOS punteras están en torno a los 30nm. Nanómetro son 10 elevado a menos 9 metros…. lo que viene siendo requetepequeño. La evolución tecnológica hace deseable seguir disminuyendo ese límite, pero en el caso de la tecnología CMOS actual, existe una limitación física y es la impuesta por el Silicio, el cual, por debajo de 10nm  comienza a comportarse de manera inestable. Es decir, entran en juego fenómenos cuánticos y por tanto impredecibles. Si no se puede controlar el dispositivo no nos vale.

A medida que los transistores se hacen más pequeños, es más difícil controlar el modo en que los electrones se mueven a través del canal de silicio para encender y apagar el transistor. Al tener que hacer frente a este comportamiento ‘rebelde’ se incrementa el consumo energético. Intel anunció hace unos años que cambiaría a un nuevo diseño de transistor en tres dimensiones para su generación de chips de 22 nanómetros. Otras empresas, sin embargo, están trabajando en los llamados transistores de cuerpo ultrafino. No obstante, al margen de la forma que se le dé, el silicio es silicio, y utilizarlo a tamaños tan pequeños presenta problemas incluso en estos nuevos diseños.

Cuando hablamos de “nanómetros” en el contexto tecnológico estamos hablando por lo tanto del tamaño, precio y rendimiento de los dispositivos electrónicos.

Como hemos dicho, hoy en día las tecnologías punteras son de 30 nm, pero hay prototipos de menor tamaño, rondando el límite físico del Silicio. Si se consiguen tecnologías de menos nm significa que caben más circuitos integrados en el mismo espacio, se consume menos potencia, se aumenta el rendimiento y bajan los costes de fabricación. Cuando se usa una tecnolObleaogía que permite reducir el tamaño de los elementos de un procesador, se reduce también la temperatura de funcionamiento sin necesidad de alterar otros factores como la frecuencia de funcionamiento. Y esto a su vez nos permite hacer procesadores cada vez más potentes incrementando su frecuencia, controlando temperaturas y optimizando tamaños. A su vez, disminuir el tamaño permite fabricar en la misma unidad de superficie (oblea) mayor número de chips,  con lo que se reducen los costes de producción.

Como el Silicio, alma mater de esta tecnología, tiene un límite físico de 10 nm, hay que buscar alternativas, y los nanotubos de carbono se posicionan a la cabeza de la lista. El radio medio del Silicio se mueve entorno a los 110pm, el radio medio del Carbono está entorno a los 70pm. Pero lo realmente diferenciador, es que con el grafeno podemos hacer capas de muy poco átomos.

Del Silicio a los nanotubos de carbono

Los nanotubos podrían ser una alternativa viable al Silicio a medida que la electrónica se haga cada vez más pequeña. Un dispositivo de nueve nanómetros desarrollado por IBM es el botón de muestra.

nanotubo-carbono2Según los investigadores de IBM, el transistor de nanotubos de carbono más pequeño jamás creado, un dispositivo de nueve nanómetros, funciona mejor de lo que lo haya hecho cualquier otro transistor del mismo tamaño.

Llevábamos más de una década escuchando hablar auténticas maravillas sobre la posibilidad de utilizar nanotubos de carbono en lugar del Silicio, pero poco más que humo había hasta que estos investigadores de IBM los fabricaron. Y además aseguran que esta es la primera evidencia experimental de que el material resulta un potencial reemplazo viable del silicio a un tamaño menor de 10 nanómetros.

nanotube_trans_x220

Para comprobar cómo afecta el tamaño de un transistor de nanotubos a su rendimiento, crearon varios transistores de diferentes tamaños a lo largo de un único nanotubo. Esto les permitió controlar las posibles variaciones que puedan producirse de nanotubo a nanotubo.

  • En primer lugar, tuvieron que colocar una capa muy delgada de material aislante sobre la que asentar los nanotubos.
  • Después, desarrollaron un proceso de dos pasos para agregarles puertas eléctricas sin dañarlos.

Estas técnicas no están en absoluto listas para la manufactura, pero permitieron al grupo de IBM crear los primeros dispositivos de nanotubos de menos de 10 nanómetros y ponerlos a prueba en el laboratorio. El trabajo se describe en la revista Nano Letters, si quieres más…léete esto..

El grupo de IBM demostró que su transistor de nanotubos de nueve nanómetros tenía un consumo de energía mucho menor que otros transistores del mismo tamaño. Además, puede llevar más corriente que otros dispositivos de silicio comparables, lo que da como resultado una mejor señal.

Siguen existiendo varios problemas de ingeniería importantes.

  • En primer lugar, los investigadores tienen que encontrar mejores métodos para crear lotes puros de nanotubos semiconductores: añadir tubos metálicos a la mezcla provocaría cortocircuitos en los circuitos integrados.
  • En segundo lugar, deben crear un modo de colocar un gran número de nanotubos en una superficie con una alineación perfecta.

Los retos aún son muchos, pero el futuro parece prometedor. La tecnología cada día nos sorprende más. El ser humano ha encontrado un camino que parece no tener fín.

Votar en los Premios Bitacoras.com

@filotecnologa

Los Programas de Investigación de Lakatos

Una vuelta de tuerca al falsacionismo

LakatosImre Lakatos fue discípulo de Kuhn y de Popper. Ahí es nada. Intentó adaptar el sistema de Popper a la nueva situación creada por Kuhn. Su intención era crear una reconstrucción racional de la historia de la ciencia, mostrando que ésta progresaba de modo racional.

La historia de la ciencia muestra que ésta no avanza sólo falsando las teorías con los hechos, hay que tener en cuenta la competencia entre teorías y la confirmación de teorías. Por ello sustituye el falsacionismo ingenuo de Popper por un falsacionismo sofisticado.

Por si no te suena o por si te interesa, en estos enlaces puedes encontrar información adicional relacionadas con el falsacionismo:

Programas de Investigación Científica

En realidad la Ciencia no evalúa una teoría aislada, sino un conjunto de ellas que conforman lo que Lakatos llama “Programa de Investigación Científica”. Un programa de investigación se rechaza al completo cuando se disponga de un sustituto superior, que explique todo lo que explicaba el anterior, más otros hechos adicionales.

Lakatos reconoce que la dificultad de este esquema radica en que, en la práctica, puede costar años llevarlo a cabo, o incluso ser inaplicable en programas de investigación muy complejos.

El concepto central de Lakatos es por tanto el de Programa de Investigación: “es una estructura que sirve de guía a la futura investigación tanto de modo positivo como negativo”.

Veamos con algo más de detalle los conceptos básicos asociados al  Programa de Investigación:

  • Núcleo central: es la característica definitoria de un programa. Toma la forma de hipótesis teóricas muy generales que constituyen la base a partir de la cual se desarrolla el programa. Es infalsable, y no se le pueden atribuir las deficiencias explicativas de un programa.
  • Cinturón protector: laberinto de supuestos que envuelve al núcleo central. Consta de hipótesis auxiliares explícitas que completan el núcleo central, de supuestos subyacentes a la descripción de las condiciones iniciales y de enunciados observacionales.
  • Heurística negativa: exigencia metodológica de que el núcleo central quede intacto y no sea vea afectado por el desarrollo del programa. El científico debe decidirse por un programa y “tener fe” en su núcleo. La heurística negativa de un programa estipula que no se pueden rechazar ni modificar los supuestos básicos subyacentes al programa, su núcleo central. Está protegido de la falsación mediante un cinturón protector de hipótesis auxiliares, condiciones iniciales, etc.
  • Heurística positiva: indica las líneas de investigación, lo que se puede (y se debe) hacer. Es un “conjunto parcialmente articulado de sugerencias, o indicaciones sobre cómo cambiar y desarrollar las “variantes refutables” del programa de investigación, cómo modificar y refinar el cinturón protector “refutable”. Junto a estas hipótesis auxiliares, incluye el desarrollo de técnicas matemáticas y experimentales adecuadas. La heurística positiva está compuesta por líneas maestras que indican cómo se puede desarrollar el programa de investigación. Dicho desarrollo conllevará completar el núcleo central con supuestos adicionales en un intento de explicar fenómenos previamente conocidos y de predecir fenómenos nuevos. Los programas de investigación serán progresistas o degeneradores según consigan o no conducir al descubrimiento de fenómenos nuevos.

Cómo debe ser un Programa de Investigación

Se debe permitir que un programa desarrolle su potencial. Por eso, al principio, las confirmaciones son más importantes que las falsaciones. Sólo cuando el programa es sólido y está consolidado tiene importancia la falsación.

Por otro lado, un programa de investigación debe descubrir “nuevos fenómenos”. El programa se puede modificar, siempre que esta modificación no sea “ad hoc”, es decir, siempre que la modificación parezca razonable y verosímil. Las modificaciones han de ser comprobables. Los cambios en el cinturón protector son convenientes y expresan la naturaleza “viva” de la teoría.

La comparación entre programas debe tomar como criterio su progreso o fecundidad y su degeneración. Con todo, estos criterios no son absolutos y es difícil predecir qué programa será más efectivo, cuál sobrevivirá y cuál desparecerá. No se puede decir cuál es “mejor”. Esto se puede hacer “sólo retrospectivamente”.

Si quieres completar el tema, puedes visitar Las estructuras como teorías 1. Los programas de investigación, capítulo del libro ¿Qué es esa cosa llamada Ciencia? de Chalmers

Los Paradigmas y las Revoluciones Científicas. Hoy también va de Kuhn.

Ejemplares y Matrices disciplinares. Critiquemos a Kuhn y a su paradigma

En la primera parte estuvimos caracterizando los parámetros básicos que enmarcan la filosofía de Kuhn, especialmente el concepto de revolución científica y el de paradigma. Los paradigmas son definidos por el propio Kuhn como “ejemplos aceptados de la práctica científica real, que incluyen a un mismo tiempo: ley, teoría, aplicación e instrumentación, los cuales proporcionan una serie de modelos de los que surgen tradiciones especialmente coherentes de investigación científica.”

Este concepto de paradigma ha sido atacado por su vaguedad y poca exactitud de modo que ha llegado a considerarse como un mero comodín o “flogisto” filosófico. Las criticas a la noción de paradigma son diversas y algunas especialmente sangrantes; fuerte inquina la de Margaret Masterman, que identifica hasta 21 formas diferentes en las que Kuhn utiliza la palabra paradigma.

En “Segundas reflexiones acerca de los paradigmas”, Kuhn admite que el uso que él ha hecho de los mismos puede llegar a confundir e identifica dos nociones muy distintas de paradigma:

  • la de ejemplares, que son soluciones a problemas concretos aceptadas por la comunidad científica como paradigmáticas, en el sentido usual del término;
  • y la de matrices disciplinares, que son los elementos compartidos que permiten dar cuenta del carácter relativamente poco problemático de la comunicación profesional y de la relativa unanimidad de criterio profesional en el seno de una comunidad científica, y que incluyen entre sus componentes generalizaciones simbólicas, compromisos compartidos de creencias en modelos concretos, valores compartidos y ejemplares compartidos.

Para Kuhn, las matrices disciplinares, al ser un tipo de visiones del mundo científicas, no son susceptibles de una caracterización completamente explícita. sino que se adquieren de forma implícita a través del proceso educacional. Nadie niega que el estudio de los ejemplares tales como informes, artículos, experimentos etc… son parte de la formación y de la preparación del científico. Para Kuhn, el científico logra hacerse con una matriz disciplinar a partir del estudio de ejemplares, y éstos determinan en buena medida dicha matriz.

En definitiva, la tesis de Kuhn es que las generalizaciones simbólicas de una teoría no se interpretan de forma explícita. Además, los métodos posibles de aplicación de las generalizaciones de la teoría a los fenómenos no se especifican por medio de algo tan explícito como las reglas de correspondencia; sino que uno adquiere implícitamente cierta destreza en interpretar y aplicar generalizaciones simbólicas modelando dichas aplicaciones sobre los ejemplares arquetípicos estudiados.

Comunidades científicas y paradigmas

El tipo de aprendizaje y adiestramiento del científico es de tal naturaleza que no sólo hace que todos los miembros de una comunidad científica mantengan el mismo stock de ejemplares, sino que hace también que todos modelen la aplicación de generalizaciones simbólicas a otros fenómenos de forma esencialmente igual.

De donde se deduce que dos comunidades científicas cuyas generalizaciones simbólicas sean las mismas, pero que posean ejemplares significativamente diferentes, conferirán a los términos teóricos un significado diferente e interpretarán por ello sus generalizaciones de forma diferente. No hay lenguaje observacional neutro alguno. Y de eso ya hemos hablado en entradas como esta y como esta otra.

Por último, dado que los ejemplares indican el tipo de cuestiones que se deben plantear y el tipo de respuestas que se deben dar, comunidades diferentes con stock de ejemplares compartidos diferentes disentirán respecto a qué cuestiones se deben plantear y respecto a qué se considerará soluciones a estas cuestiones.

Lo característico de una comunidad científica es, pues, la posesión común de una matriz disciplinar, la cual se adquiere mediante el dominio del stock de ejemplares compartido por la comunidad científica y del arte de modelar aceptablemente sobre los ejemplares nuevas aplicaciones de sus generalizaciones simbólicas.

Ciencia normal es aquella ciencia practicada por una comunidad científica que posee en común una matriz disciplinar basada en el stock de ejemplares compartidos. Cuando una comunidad científica surge por vez primera en torno a una matriz disciplinar, el stock de ejemplares puede ser relativamente pequeño. La ciencia normal se ocupa de resolver los problemas abiertos o enigmas planteados por los ejemplares o por la matriz disciplinar basada en ellos.

No hay revolución sin crisis

La crisis es condición necesaria para la revolución científica. La ciencia normal tropieza invariablemente con fenomenos anómalos. Si los esfuerzos no logran hacer cuadrar las anomalías con la matriz disciplinar se produce una crisis científica, escenario para la revolución.

La decisión de rechazar una teoría por otra es siempre, simultáneamente, la decisión de aceptar otra. Antes de que se rechace una matriz disciplinar, debe producirse una sustitución, y la revolución científica consiste en un cambio de lealtades. De la vieja matriz disciplinar a la nueva. Esta sustitución no puede ser otra cosa que el fruto de la investigación extraordinaria, la cual, al no estar fijada de antemano por una matriz disciplinar común se convierte en una investigación más libre.

La investigación extraordinaria resolverá la crisis de una de estas tres formas:

  1. Las teorías, ejemplares y técnicas previas a la crisis demuestran, en último término, ser capaces de resolver los problemas.
  2. El problema sigue ofreciendo resistencia incluso a enfoques radicalmente nuevos y es reservado para una próxima generación que posea mejores instrumentos.
  3. Surge un nuevo candidato a matriz disciplinar. Esta tercera forma corresponde a una revolución científica. La vieja teoría y el candidato a sustituirla deben ser lógicamente incompatibles.

La nueva matriz disciplinar puede poseer alguna de las viejas generalizaciones simbólicas, pero confiriendo un significado diferente a los términos teóricos. Así, por ejemplo, la Teoría de la Relatividad sigue empleando ecuaciones clásicas de movimiento, pero con significado distinto. En este sentido el cambio científico es acumulativo sólo dentro de la ciencia normal.

Dos observadores que contemplan las mismas cosas desde matrices disciplinares diferentes ven cosas diferentes. “Aunque el mundo no cambia con un cambio de matriz disciplinar, después de él, el científico trabaja en un mundo distinto.” Ven cosas diferentes por varias razones.

En primer lugar, los datos que el científico recoge son distintos. Los datos no son puros estímulos sensoriales, sino resultados de clasificar los fenómenos. En este sentido cabe recordar, de entradas anteriores:

En segundo lugar, los datos se expresan en el lenguaje de la ciencia y el significado de estas expresiones es diferente en las diferentes matrices disciplinares. Lo que ocurre no es que uno vea el mundo y luego lo interprete desde su matriz disciplinar, sino que más bien uno ve el mundo a través de su propia matriz disciplinar y, aunque un cambio de matriz no supone un cambio del mundo, sí supone un cambio de lo que de él se ve y de cómo se lo ve.

Popper ataca directamente a Kuhn diciendo que recurrir a la historiografía de la ciencia, a la psicología o a la sociología de la ciencia, “con el propósito de esclarecer los objetivos de la ciencia y su posible progreso, es sorprendente y decepcionante, porque esas ciencias son frecuentemente espurias, y en ellas no se puede encontrar una descripción pura y objetiva”.

Lakatos desarrollará más tarde esos argumentos popperianos, volviéndose no sólo contra Kuhn, sino contra el propio Popper. De hecho, Lakatos puede ser descrito como un popperiano para quien la historiografía cumple un papel en la evaluación de teorías de la ciencia, o como un kuhniano para quien una teoría de la ciencia sólo puede ser apriorística. Su trabajo principal sobre la historiografía de la ciencia se abre con una famosa paráfrasis a Kant, tomada prestada de Hanson: “La filosofía de la ciencia sin la historia de la ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es ciega”. La primera sentencia se dirige, evidentemente, contra aquellos que muestran indiferencia por la historia de la ciencia, como Popper y los empiristas lógicos. La segunda es, en especial, una crítica a Kuhn.

De Lakatos hablaremos en la siguiente entrada acerca de las Teorías Científicas.

@filotecnologa

Los Paradigmas y las Revoluciones Científicas. Hoy va de Kuhn.

Kuhn y sus circunstancias

Thomas Kuhn era físico, pero en sus ratos libres se interesaba por la historia de la ciencia. Le llamaba especialmente la atención lo poco que se parecía esa historia a la ciencia a la que dedicaba gran parte de su tiempo a la ciencia que él había estudiado y ejercía.

De esta confrontación surgió una reflexión filosófica a partir de la cual construyó su tesis central:

“las nuevas teorías científicas no nacen por verificación ni por falsación, sino por sustitución”

Pero… ¿sustitución de qué?.

En la época de Kuhn las ideas de Popper eran absolutamente incuestionables, y levantó una gran polémica con su concepto de la filosofía de la ciencia, que defendía a capa y espada. Para Kuhn, la filosofía de la ciencia es, básicamente, la reflexión filosófica sobre la construcción, la reelaboración, la sustitución y la reconstrucción de las teorías científicas. Proceso que -en su opinión -no siempre sigue el camino ortodoxo de la lógica.

El enfoque de toda la obra escrita de Thomas S. Kuhn es por tanto un enfoque histórico-sociológico. Kuhn analiza desde las ciencias de la naturaleza el desarrollo histórico real de las grandes concepciones del mundo. Y para ello confiere gran importancia al comportamiento de los científicos. Le interesa desentrañar el carácter humano de cualquier elaboración de la ciencia. En concreto, a Kuhn le interesa mostrar cómo los científicos (o mejor, las comunidades científicas) elaboran, difunden, utilizan, aplican, aceptan o rechazan las diversas teorías de las ciencias.

La evolución de la ciencia

Para Kuhn la ciencia es un producto fruto de la combinación de la historia y la sociedad.

  • Kuhn descubrió que la ciencia es fundamentalmente un producto histórico, de ahí que la palabra revolución, concepto típicamente historiográfico, se clave a hierro en su obra.
  • Además identifica como a la social la otra gran componente de la ciencia, y a partir de ella derivará el concepto de paradigma.

Kuhn intenta ofrecer una imagen de la ciencia ajustada a su historia, con lo que hay que replantearse una visión idílica de la ciencia que la identifica con un saber eterno y atemporal, con esa imagen clásica de la ciencia que la concibe como la disciplina que atesora la verdad.

Kuhn resume el cambio científico con el siguiente esquema:

  • Un paradigma está constituido por los supuestos teóricos generales, las leyes y las técnicas para su aplicación que adoptan los miembros de una comunidad científica. Trabajar dentro de un paradigma implica poner en práctica lo que se llama “ciencia normal”, que es la que articula y desarrolla el paradigma.
  • En este desarrollo, surgirán problemas, fenómenos que no quedan explicados por el paradigma. Si estas dificultades se consolidan, puede llegarse a la crisis que se puede resolver sólo desde un nuevo paradigma.
  • Cuando este nuevo paradigma rompe radicalmente con el anterior, se produce una revolución científica.

Veamos con más detalle cada uno de los conceptos implicados en esta descripción:

El paradigma coordina y dirige la resolución de problemas y su planteamiento. Es el modelo de hacer ciencia que orienta la investigación científica y bloquea cualquier presupuesto, método o hipótesis alternativa. El paradigma es el soporte para la ciencia normal. Consta de leyes y supuestos teóricos, así como de aplicaciones de esas leyes y el instrumental necesario para las mismas. De fondo, aparece también un principio metafísico, una concepción de la realidad y de las cosas. Un paradigma conlleva una weltanschauung.

La ciencia normal es la actividad para resolver problemas (teóricos o experimentales) gobernada por las reglas de un paradigma. Sólo desde el paradigma se logran los medios adecuados para resolver problemas. Los fenómenos inexplicados son anomalías, responsabilidad del científico, no de la teoría. El científico “vive” en el paradigma.

La preciencia se caracteriza por la falta de acuerdo en lo fundamental, por el “debate” sobre las leyes principales y los principios rectores. La ciencia normal, por el contrario, se sustenta en un modelo compartido, en un acuerdo que sirve como punto de partida para la investigación científica.

Surge la crisis con la existencia de anomalías, aunque sólo eso no implica una crisis necesariamente. Cuando se afecta al fundamento del paradigma y no es superado, es cuando el fenómeno constituiría una crisis. Las anomalías también conducen a una crisis cuando haya necesidades o exigencias sociales, tiempo escaso, o acumulación de anomalías. La crisis produce “inseguridad profesional marcada”: surge la duda, la discusión, e incluso terminará formándose un paradigma rival.

Hablamos entonces de revolución; la crisis puede dar lugar a un cambio, a un “nuevo mundo”. Los científicos rivales “viven en mundos distintos” y hay factores sociales, históricos, económicos, culturales y religiosos que pueden propiciar que un individuo se mantenga en su paradigma. La elección entre paradigmas rivales resulta ser una elección entre modos incompatibles de vida comunitaria y ningún argumento puede ser lógica ni siquiera probabilísticamente convincente. Intervienen factores personales, psicológicos. Por tanto, la revolución es ejecutada por parte de una comunidad científica y no por un científico particular.

En “La estructura de las revoluciones científicas”, Kuhn se plantea la naturaleza del cambio científico. Para él, el desarrollo por reducción es incompatible con lo que en realidad ha sucedido en la historia de la ciencia. El cambio científico es fundamentalmente revolucionario. Las revoluciones científicas son aquellos episodios de desarrollo no acumulativo en los que un viejo paradigma es sustituido total o parcialmente por otro distinto incompatible con él.

Seguiremos con Kuhn en la siguiente entrada, en la que comenzaremos metiéndole un poquito de caña.

@filotecnologa

Teoría Científica como Regla de Correspondencia. La ambiciosa utopía de la Concepción Heredada.

A partir de los años veinte del siglo XX, los filósofos de la ciencia jugaban a construir las teorías científicas como cálculos axiomáticos, a los que se les daba una interpretación observacional por medio de reglas de correspondencia. Jugaban a  “La Concepción Heredada de las Teorías”.

En los años cincuenta ya no gustaba el juego. Esta corriente empezó a ser objeto de ataques críticos en general. Y en particular y especialmente acérrimos los centrados en su base empírica fundamental: la distinción teórico-observacional,

Se propusieron nuevos juegos, filosofías de la ciencia alternativas. Y sí, refutaron la Concepción Heredada, pero ninguno de los análisis de teorías propuesto con posterioridad ha tenido amplia aceptación.

Características básicas de una teoría científica en la Concepción Heredada

En lo esencial, la Concepción Heredada (Recieved View) concibe las teorías científicas como teorías axiomáticas formuladas en una lógica matemática L, que reúne las siguientes condiciones:

  • Es de primer orden (es decir, se trata de una lógica matemática de predicados) con identidad. La lógica de primer orden tiene el poder expresivo suficiente para definir a prácticamente todas las matemáticas.
  • Los términos no lógicos o constantes de L se dividen en tres clases disjuntas llamadas Vocabularios:
    • El vocabulario lógico, VL, que consta de constantes lógicas (incluidos términos matemáticos).
    • El vocabulario observacional, VO, que contiene términos observacionales. Los términos de VO se interpretan como referidos a objetos físicos o a características de los objetos físicos, directamente observables.
    • El vocabulario teórico, VT, que contiene términos teóricos. Conjunto de postulados teóricos T. El conjunto de axiomas T es el conjunto de leyes teóricas de la teoría.
  • Existen Reglas de Correspondencia C que establecen una relación explícita de los términos  del vocabulario teórico (VT) en términos del vocabulario observacional (VO); las teorías explican los fenómenos mediante reglas de correspondencia.

Las reglas de correspondencia

Las reglas de correspondencia tienen tres funciones:

  • Definen términos teóricos,
  • Garantizan el significado cognitivo de los términos teóricos
  • Especifican los procedimientos experimentales admisibles para aplicar una teoría a los fenómenos.

Un sencillo ejemplo de reglas de correspondencia sería el siguiente:

“si se coloca el objeto x en una balanza y el indicador de la balanza coincide con el número y, entonces la masa de x es el número designado por y.”

La teoría TC (es decir la conjunción de un cuerpo teórico que mediante reglas de correspondencia explica los fenómenos) es capaz de hacer predicciones, donde predicción y explicación son formalmente lo mismo, siendo la única diferencia que la predicción se realiza antes del hecho y la explicación se realiza después.

Sin embargo, el significado de los términos teóricos no es totalmente observacional, por tanto, TC no podrá especificar el significado total de los términos teóricos. Para ello, se debe recurrir a un metalenguaje más rico.

Por ejemplo, en el término teórico “electrón”, sólo parte del significado de “electrón” concierne a las manifestaciones observacionales. Cuando un científico emplea el término teórico “electrón” en una teoría TC, está afirmando que existe algo que tiene las manifestaciones observables especificadas por TC. Esto es, las reglas de correspodencia C junto con los principios teóricos T dan sólo una interpretación parcial de los términos de VT.

En la versión más evolucionada de la Concepción Heredada, las teorías se consideran realísticamente como descripciones de sistemas no-observables que se relacionan de modos no especificables del todo con sus manifestaciones observables; en este análisis el aparato teórico es central, y el énfasis se pone en cómo el aparato teórico se relaciona con los fenómenos.

Críticas

La Concepción Heredada empieza especificando una formulación canónica de las teorías en términos de un cálculo axiomático y unas reglas de correspondencia. Una teoría científica dada se podría reformular en esta forma canónica y esta formulación canónica captaría y preservaría el contenido conceptual y estructural de la teoría. En la formulación canónica se vería con mayor claridad y transparencia la naturaleza conceptual o estructural de dicha teoría.

Pero es que resulta que no todas las teorías científicas admiten la formulación axiomática canónica requerida por la Concepción Heredada. Espero que esta idea ya te estuviera rondando por la cabeza hace un rato. La Concepción Heredada es plausible para algunas teorías científicas, pero no para otras.

Además, la interpretación que la Concepción Heredada hace de las reglas de correspondencia es indudablemente insatisfactoria.

  • La CH ve erróneamente a las reglas de correspondencia como componentes de teorías, más que como hipótesis auxiliares;
  • Ignora el hecho de que las reglas de correspondencia constituyen con frecuencia cadenas causales explicativas que emplean otras teorías como hipótesis auxiliares;

Por lo tanto, las críticas afirman que el concepto de reglas de correspondencia de la CH,epistemológicamente hablando,  es erróneo por una simplificación excesiva.

Se propusieron a continuación visiones de la ciencia en las que las teorías son consideradas como algo esencialmente dinámico, como entidades en crecimiento que establecen una weltanschauung. Autores como Kuhn o Lakatos parecen interpretar que este carácter dinámico de la ciencia hace inadecuada la formalización de las teorías científicas si se quiere hacer un análisis filosófico de las mismas. Lo veremos en entradas posteriores.

Que la ciencia sólo sea lo que es matematizable es una aproximación totalmente utópica. Pero sería la interpretación más potente de la ciencia. Un cuerpo de teorías que tienen un fundamento matemático-lógico es imbatible. Tan imbatible como inviable.

@filotecnologa