Monday, March 19, 2018

SPARC:new fusion reactor


Some private firms from   USA (Commonwealth Fusion Sistems/constituted  on 2017, with former researchers from MIT), Italy  (ENI) and MIT (Plasma Science and Fusion Center/ MIT), will try in the next 15 years to develop a pilot plant to generate energy through nuclear fusion (union of atomic nuclei), capable of generating immense amounts of energy, free of pollution. The plan foresees the use of high-temperature   superconductors,  capable of generating magnetic super-fields inside a new type of nuclear reactors: SPARC (small compact, robust, compact reactor),  small, cheap, easy to build and faster, able to become antiquated - before being born - to the French ITER (International Thermonuclear Experimental Reactor, started to build on 2013, with economic support from Europe [45%], USA, China, India, Japan, Korea and Russia), given their problems of construction, high cost and organizational problems. An ITER, condemned to an announced death, because it continues half-built, hoping to produce  only on 2035,  its first   overheated  plasma  in a power plant of just 500 MW and a final cost of 50 billion dollars.   The artificial nuclear fusion tries to replicate on Earth, the process that naturally occurs inside our sun, converting H atoms into Helium, at extreme temperatures. Although ITER has advanced creating magnets capable of containing the overheated plasma, it still does not overcome the problem of being able to control the reaction, given the extreme temperatures. ITER is confident that the generated and reheated energy will move turbines that will produce electricity at low cost, expecting to build more than 100,000 km of niobium superconductors, a prerequisite for the construction of supermagnets that would conduct the superheated plasma (superheated matter, turned into gas, formed by  free  (not joined as in atoms), positive  and negative subatomic particles),  away from the metal walls inside the tokamak. The joint venture MIT-CFS, to build the new reactors, has just received 50 million dollars to research, refine and transform in the following 3 years different varieties of superconductors at extreme temperatures, then in the next 10 years have ready the first reactor prototype, a 200-megawatt power plant to export electricity. Researchers at MIT and the CFS plan to avoid contacting the superheated plasma with any part of the interior of the tokamak, developing powerful superconductors and electromagnets capable of producing a more compact version of tokamak. Here,  enters to carve a new superconducting material: an steel tape, covered by a compound of: Yttrium-barium-copper oxide (YBCO), which will allow scientists to produce smaller and more powerful magnets, reducing the amount of energy necessary to start the fusion reactions. The CFS will design and build a compact experimental fusion plant: SPARC, using these magnets, with the expectation that its first commercial fusion plant will generate 100 MW of electricity, enough to supply a small city. Supermagnets are the key technology for these new fusion reactors as their magnetic fields will be 4 times more powerful than any current tokamak. The final design includes a sustainable, carbon-free, potentially inexhaustible fusion plant (200 MW of electricity), within 15 years. The SPARC, an evolution of the tokamak, has only 1/65 of   ITER’ volume, thus  drastically reducing the cost of these plants.


Algunas firmas privadas de USA (Commonwealth Fusion  Sistems/constituida el 2017, con ex investigadores del MIT), Italia (ENI) y el MIT (Plasma Science and Fusión Center/MIT), intentaran en un plazo de 15 años, desarrollar una planta piloto para generar energía mediante fusión nuclear (unión de núcleos atómicos), capaz de  generar  inmensas cantidades de energía, libres de polución. El plan prevé la utilización de  superconductores de electricidad de alta temperatura, capaces de generar supercampos magnéticos al interior de un nuevo tipo de reactores nucleares : SPARC (smallest private affordable, robust compact reactor), pequeños, baratos, fáciles de construir y más  veloces, capaces de  tornar anticuado -antes de nacer- al ITER francés (International Thermonuclear Experimental Reactor,   empezado a construir  el  2013, con  respaldo  económico de Europa [45%],  USA, China, India, Japón, Corea y Rusia),  dado sus problemas de construcción, alto costo y problemas de organización. Un ITER, condenado a una muerte anunciada, porque continua a   medio construir esperando producir recién el 2035, su primer plasma recalentado en una planta de poder de apenas 500 MW y un costo final de 50 billones de dólares.  La fusión nuclear artificial intenta replicar en la Tierra, el proceso que en forma natural ocurre al interior de nuestro sol, convirtiendo átomos de H en Helio, a temperaturas extremas.  Aunque el ITER ha avanzado creando magnetos capaces de contener el plasma recalentado, aun no supera el problema de poder controlar la reacción, dadas las temperaturas extremas. El ITER, confía en que la energía generada y recalentada moverá turbinas que producirán electricidad a bajo costo, esperando   construir más de 100,000 km de superconductores de niobio, prerrequisito para la construcción de supermagnetos que conducirían el plasma recalentado (materia supercalentada, devenida en gas, conformada por partículas subatómicas positivas y negativas libres: no unidas como en los atomos), lejos de las paredes metálicas del interior del tokamak. El joint venture MIT-CFS, para construir los nuevos reactores, acaba de recibir 50 millones de dólares   para investigar, perfeccionar y transformar en los siguientes 3 años distintas variedades de superconductores a temperaturas extremas, para luego en los siguientes 10 años tener listo el  primer prototipo de reactor,  una planta de poder de  200-megwatt para exportar electricidad.  Los investigadores del MIT y el CFS, prevén evitar el contacto del plasma recalentado con cualquier parte del interior del tokamak, desarrollando poderosos superconductores y electromagnetos capaces de elaborar una versión más compacta de tokamak. Aquí, entra a tallar un nuevo material superconductor:  una cinta de acero, cubierta por un compuesto de:  Ytrio-bario-oxido de cobre (YBCO), que permitirá a los científicos producir magnetos más pequeños y más poderosos, reduciendo la cantidad de energía necesaria para  iniciar las reacciones de  fusión.  El CFS diseñara y construirá una planta de fusión experimental compacta: SPARC, empleando estos magnetos, esperándose que su primera planta comercial de fusión genere 100 MW de electricidad, suficiente para abastecer una pequeña ciudad. Los supermagnetos son la tecnología clave para estos nuevos reactores de fusión en tanto sus campos magnéticos serán 4 veces más potentes que cualquier tokamak actual. El diseño final comprende a una planta de fusión sostenible, libre de carbón, potencialmente inexhaustible (200 MW de electricidad), dentro de 15 años. El SPARC, una evolución del tokamak, posee apenas 1/65 del volumen del ITER, reduciendo   drásticamente el costo de estas plantas.  

Friday, February 23, 2018


Taken from quantamagazine


Now that IBM, Intel, Google, the Chinese republic, and others invest large amounts of money in star ups and prototypes of quantum computers (CC), it is appropriate to have a futuristic vision of these, because current CC are rudimentary and confront several problems. According to the theoretical model of superstring theory, it is assumed that  particles that give shape to matter and the world are not points but rather vibrational states of more basic objects called strings. Then, a vibrational machine (CC), can be seriously affected by other vibrational states, external to it (noise), with which the processes of the CC, are affected by interference, generating erratic results.  Michel Devoret before and now Gil Kalai (Hebrew University, Jerusalem), believe that quantum computers will never work consistently and that their advantages will not be very large, because all physical systems are noisy and   that entanglements  will be corrupted by any noise from the external world. A problem that induced the Chinese scientist Jian-Wei Pan (University of Science and Technology of China USTC), to demonstrate the validity of CC, in other scenarios. Jian, who dreams of manipulating particles one by one and intertwining them at will, has managed to couple (2017) an experimental quantum satellite with a similar instrument located on the Chinese space station. Jian says that in an optical fiber the signal decreases exponentially with distance and that after 1,000 km, the absorption of light prevents the transmission of more than 1 quantum bit per century, so it is necessary to invent a quantum repeater to extend the distance of quantum communications in optical fibers. With this it will be possible to detect the state of a particle of light, before it is absorbed, to transfer it to another area and teleport it from one particle to another, being necessary for it to have quantum memories, to store the state of a photon, before transfer it. Aside from the previous thing, Jian explores the quantum communications in the space, where the absorption of the light is much smaller (80-99.99%, less than the initial signal), needing new protocols to assure the communication. Elsewhere in the world, some scientists also  follows alternate paths: Elizabeth Behrman (Wichita State University) combines quantum physics with artificial intelligence and the technology of neural networks, a combination that already surpasses several human actions: chess, big data, face recognition, language translation. Although the advances of the quantum processors are still small, the CC of 2000 qbits (D-Wave/Canada), already manipulate large  amounts of data in a single step, detecting hidden patterns. Artificial neural networks recognize patterns, with the help of neurons (basic units of computation). A neuron monitors the output of multiple different neurons, activating many neurons arranged in layers. Intermediate layers create combinations (structures, edges and geometrical shapes), while a final layer produces the output (high level image), through trial and error processes. In a classical PC these interconnections are represented by a matrix of numbers outsourced to a specialized chip: graphic processing unit. However, no classical computer makes algebraic matrices like a quantum CC does. According to Set Lloyd (MIT), the manipulation of large matrices and vectors is exponentially very fast in a CC, an advantage that allows a huge storage capacity resident in the collective properties of the qubits. 2 qubits have 4 states: 2 off, 2 on, 2 off-on, 2 on-off. Each state has a certain amplitude, which can represent a neuron. In 2008, Lloyd, Aram Harrow (MIT) and Avinatan Hassidim (Bar-Ilan University, Israel), demonstrated that by inverting the algebraic matrices, a sequence of logical operations was observed, executed by the CCs. It was then concluded that  CCs are susceptible to further improvements, including noise interference. If, as many people think, the brain works like a quantum PC, because it is not affected by noise? Perhaps, certain adaptive mechanisms made the human brains more resistant to external noise, perhaps the skull and/or the meninges cancel noise. The largest current  CC, has been manufactured in Canada with 2,000 qubits (D-Wave Systems, Vancouver), in which each qubit is a superconducting electric loop, a small electromagnet oriented up, down or superimposed. To make it work, a horizontal magnetic field is activated, which initializes the qubits in top-down superimpositions, allowing the qubits to interact with each other. As most qbits are usually misaligned, some seek to align them in the same direction, in the opposite direction or, under the influence of the horizontal field, although in the end the qbits choose the most convenient orientation. Current CC, have additional problems: ¿how to extract data outside a CC? For this, it is necessary to previously measure the quantum state of the machine, otherwise the machine may collapse. Some researchers have identified short paths to extract data from a CC. According to Lloyd, Silvano Garnerone (University of Waterloo/Canada) and Paolo Znardi (USC), for certain statistical analyzes, it is not necessary to enter or store the data when a few key values ​​may be sufficient. So far, it is understood that CC being faster can revolutionize many areas of teaching and learning. For the moment it is thought that the human brain is a CC and for Perdomo-Ortiz the CC will be able in the future to self-assemble and will be models to study human cognitive models and that while advancing along this path, the CC will be refined.


Ahora que IBM, Intel, Google, la republica China y, otros invierten grandes cantidades de dinero en star ups y prototipos de computadoras cuánticas (CC), es adecuado tener una visión futurista de estas, porque las CC, actuales son rudimentarias y confrontan varios problemas.  Según el modelo teorico de la teoría de las supercuerdas, se asume que las particulas que dan forma a la materia y al mundo -no son puntos- sino estados vibracionales de objetos mas básicos denominados cuerdas. Entonces, una maquina vibracional (CC), puede ser seriamente afectada por otros estados vibracionales, externas a ella (ruido), con lo que los procesos de las CC, son afectados por interferencias anticuerdas, generando   resultados erraticos. Ante ello, Michel Devoret antes y ahora   Gil Kalai (Hebrew University, Jerusalem), opinan que las computadoras cuánticas nunca funcionarán en forma consistente y que sus ventajas no serán muy grandes, porque todos los sistemas físicos son ruidosos y las superposiciones (entanglements), seran corrompidas por cualquier ruido del mundo externo. Un problema que indujo al científico chino Jian-Wei Pan (University of Science and Technology of China USTC), a demostrar la validez de las CC, en otros escenarios. Jian que sueña con   manipular particulas una a una y entrelazarlas a voluntad, ha logrado acoplar (2017), un satélite cuantico experimental con un instrumento similar ubicado en la estación espacial china. Jian afirma que en una fibra óptica la señal disminuye exponencialmente con la distancia y que después de 1,000 km, la absorción de la luz impide la    transmision de mas de 1 quantum bit por centuria, por lo que es necesario inventar un repetidor cuantico para extender la distancia de las comunicaciones cuánticas en las fibras opticas. Con ello será posible detectar el estado de una particula de luz, antes que sea absorbida, para transferirla a otra área y   teleportarla de una particula a otra, siendo necesario para ello disponer de memorias cuánticas, para almacenar el estado de un foton, antes de transferirlo. Aparte de lo anterior, Jian explora las comunicaciones cuánticas en el espacio, donde la absorción de la luz es mucho menor (80-99.99%, menos que la señal inicial), necesitándose nuevos protocolos para asegurar la comunicación.  En otros lugares del mundo también se   transita por caminos alternos: Elizabeth Behrman (Wichita State University), combina la física cuántica con la inteligencia artificial y la tecnología de las redes neuronales, una combinación que ya supera varias acciones humanas:  ajedrez, big data, reconocimiento de caras, traducción de idiomas.  Aunque los avances de los procesadores cuánticos aun son pequeños, las CC de 2000 qbits (D-Wave/Canada), ya manipulan grandes cantidades de datos en un solo paso, detectando patrones ocultos.   Las redes neuronales artificiales, reconocen patrones, con la ayuda de neuronas (unidades básicas de computación). Una neurona monitoriza la salida de multiples neuronas distintas, activando a muchas neuronas ordenadas en capas. Las capas intermedias crean combinaciones (estructuras, bordes y formas geometricas), mientras una capa final produce la salida (imagen de alto nivel), mediante procesos de ensayo y error.  En una PC clásica estas interconexiones son representadas por una matriz de números externalizadas a   un chip especializado: unidad de procesamiento grafico.  Empero ninguna computadora clásica, hace matrices algebraicas como lo hace un CC cuantica. Según Set Lloyd (MIT), la manipulación de grandes matrices y vectores es exponencialmente muy rapida en una CC, ventaja que permite una enorme capacidad de almacenamiento residente en las propiedades colectivas de los  qubits.  2 qubits tienen 4 estados: 2 apagados, 2 encendidos, 2 apagado-enecendido, 2 encendido-apagado. Cada estado tiene cierta   amplitud, que puede representar una neurona.    En el 2008, Lloyd, Aram Harrow (MIT) y Avinatan Hassidim (Bar-Ilan University, Israel), demostraron que al invertir las matrices algebraicas se aprecio una secuencia de operaciones logicas, ejecutadas por las CC.  Se concluyo entonces que las CC, son susceptibles a mas mejoras, incluyendo las interferencias del ruido.  ¿Si como muchos piensan el cerebro funciona al modo de una PC cuántica, porque no es afectda por el ruido? Tal vez, ciertos mecanismos adaptativos, hicieron mas resistentes a los cerebros al ruido externo, tal vez el cráneo y/o las meninges anulan el ruido.    La mas grande CC actual, ha sido fabricada en Canada contando con 2,000 qubits (D-Wave Systems, Vancouver), en el que cada qubit es un asa eléctrica superconductora, un pequeño electromagneto orientado hacia arriba, abajo o en superposicion.  Para hacerla funcionar, se activa  un campo magnético horizontal, que inicializa los qubits en  superposiciónes de  arriba-abajo, dejando que  los  qubits interactúen entre si. Como usualmente la mayoría de qbits están mal alineados, algunos buscan alinearlos en la misma dirección, en dirección opuesta o, bajo la influencia del campo horizontal, aunque al final los qbits  escogen la orientación mas conveniente.  Las CC actuales, tienen   problemas adicionales: ¿como extraer los datos fuera de una CC? Para ello, hay que medir previamente el estado cuantico de la maquina, de lo contrario la maquina puede colapsar. Algunos investigadores han identificado caminos cortos para extraer datos de una CC. Según Lloyd, Silvano Garnerone (University of Waterloo/Canada) y Paolo Znardi (USC), para ciertos análisis estadisticos, no se necesita entrar o almacenar los datos cuando unos pocos valores clave pueden ser suficientes.  Hasta aquí, se entiende que las CC siendo mas rapidas pueden revolucionar muchas áreas de la enseñanza-aprendizaje.  Por lo pronto se piensa que el cerebro humano es una CC y para    Perdomo-Ortiz las CC serán capaces en el futuro de autoensamblarse y serán modelos para estudiar los modelos cognitivos humanos y que mientras se avanza por este camino, las CC se iran perfeccionando.

Thursday, February 01, 2018



Five decades ago we witnessed the installation of a giant binary computer in Trujillo-Perú. The equipment consisted of 12 black metal boxes of 3 m high and 0.6 m wide occupying -interconnected- an area of ​​100 square meters. Why was this giant computer imported into Peru? To quickly process entrance exams for thousands of applicants to the National University of Trujillo. The chips of that time were bulky transistors. Today, that technological paraphernalia has been replaced by small computers installed in areas of 10 square meters, equipped with hundreds of chips. How did this revolution occur? Reducing and reconverting the voluminous transistors to tiny chips. A reduction in the size of the machines in exchange for better efficiency does not seem to be exclusive to the machines. The same thing seems to have happened in the brains of living beings (including humans), to whom evolutionarily it also suits smaller genomes, to be also more efficient and healthy. This is suggested by T. Ryan Gregory (University of Guelph, Canada), who studies the effects of genome size and brain complexity. To small genomes → small neurons, more neurons → more neuronal connections. According to T Ryan Gregory himself, the downsizing  of red blood cells would have increased brain complexity. However, not only the brain, but also the flowering plants (angiosperms), expressed in its abrupt origin and rapid diversification during the early Cretaceous, allowing them to compete successfully against conifers and gymnosperms. In fact, angiosperms exhibit smaller leaves with numerous stomata and more venous networks that allow them to transport the sap better, have a more efficient photosynthesis, better transpiration and greater growth. Currently, angiosperms are the dominant plants in most terrestrial ecosystems. Having smaller genomes and cells coupled with the ability to capture more CO2, suggests that genome downsizing  is a prerequisite for rapid growths in plants. Conversely, a large genome, volume and large cell size are restrictions on the number of cells capable of occupying a given space. The leaves of angiosperms with many stomata and high venous density maintain high rates of gas exchange. The total sequencing of Arabidopsis thaliana (angiosperm) has contributed much to this understanding. According to Kevin A. Simonin (San Francisco State University) and Adam B. Roddy (Yale University), A. thaliana has one of the smallest genomes (157 million base pairs). Although there are angiosperms with very large genomes, these are the only ones that have been able to reduce the size of their genomes. Simonin and Roddy,   argue in PLOS Biology, that while the first terrestrial plants evolved over 500 billion years to reach their current development, flowering plants established their predominance in just the last 100 million years (beginning in the Cretaceous), emphasizing that it is genome downsizing what counts: less DNA to generate smaller cells. In the case of human beings,  allowing the brain,  to have more neurons and more connections, conditioning more sophisticated brains.


Hace 5 décadas   presenciamos la instalación de una computadora binaria gigante en Trujillo-Perú. El equipo constaba de 12 cajas metálicas negras de 3 m de alto y 0,6 m de ancho ocupando interconectadas, un área de 100 metros cuadrados.  ¿Para qué se importó esta computadora gigante al Perú? Para procesar rápidamente los exámenes de ingreso de miles de   postulantes a la Universidad Nacional de Trujillo. Los chips de ese entonces eran transistores, voluminosos. Hoy en día, esa parafernalia tecnológica ha sido reemplazada por pequeñas computadoras instaladas en áreas de 10 metros cuadrados, dotadas de cientos de chips.   ¿Como se produjo esta revolución? Reduciendo y reconvirtiendo los voluminosos transistores a minúsculos chips.  Una reducción del tamaño de las   maquinas a cambio de mejor eficiencia, no parece ser exclusividad de las maquinas. Lo mismo parece haber sucedido en el cerebro de los seres vivos (incluyendo humanos), a quienes evolutivamente también les conviene genomas más pequeños, para ser también más eficientes y saludables. Así, lo sugiere T. Ryan Gregory (University of Guelph, Canadá), quien estudia los efectos del tamaño del genoma y la complejidad cerebral. A pequeños genomas → pequeñas neuronas, a más neuronas → más conexiones neuronales. Según el mismo T Ryan Gregory, el empequeñecimiento de los glóbulos rojos habría incrementado la complejidad cerebral. Empero, no solo el cerebro, también las plantas con flores (angiospermas), expresada en su abrupto origen y rápida diversificación durante el Cretáceo temprano, permitiéndoles competir con éxito frente a coníferas y   gimnospermas. De hecho, las angiospermas exhiben hojas más pequeñas con numerosas estomas y más redes venosas que les permiten trasportar la savia de mejor manera, tener una fotosíntesis más eficaz, mejor traspiración y mayor crecimiento. En la actualidad, las angiospermas son las plantas dominantes en la mayoría de ecosistemas terrestres. Tener genomas y células más pequeñas aunado a la facilidad para captar mayor cantidad de CO2, sugiere   que la reducción del tamaño del genoma es un prerrequisito para crecimientos rápidos en las plantas. Contrariamente, un gran tamaño del genoma, del volumen del núcleo y del tamaño celular, son   restricciones al número de células capaces de ocupar un espacio determinado. Las hojas de las angiospermas con muchísimos estomas y alta densidad venosa mantienen altas tasas de intercambio gaseoso. Ha contribuido mucho a este entendimiento la secuenciación total de Arabidopsis thaliana (angiosperma).  Según   Kevin A. Simonin (San Francisco State University) y Adam B. Roddy (Yale University), A. thaliana tiene uno de los genomas más pequeños (157 millones de pares de bases). Aunque existen angiospermas con genomas muy grandes, estas son las únicas que han sido capaces de reducir el tamaño de sus genomas.   Ambos autores sostienen en PLOS Biology, que mientras las primeras plantas terrestres evolucionaron durante 500 billones de años para alcanzar su desarrollo actual, las plantas con flores establecieron su predominancia en  apenas los últimos 100  millones de años  (empezando en el Cretáceo), enfatizando que es el tamaño y el empequeñecimiento del genoma lo que cuenta. En el caso de los humanos, menos DNA para generar células más pequeñas, permitiendo que el cerebro cuente con más neuronas y conexiones, condicionando cerebros más sofisticados.

Saturday, January 13, 2018



Until recently, it was thought that the modeling of the shape and evolution of trees had to do only with the incessant competition for sunlight, the fundamental axis of photosynthesis. Now, a group of physicists, biologists, hydraulic engineers and French geneticists, under the leadership of Bruno Moulia (Research director atINRA, Plant-Biomechanics and Plant Deveploment Biology, Clermont Auvergne/France), have added a second fundamental factor: the impact of the wind or, if you like, the joint action of both. The issue is that these  study has been done by simulating the growth and evolution of virtual trees for 200,000 years (an extension of the mental experiments of Einstein and Schrödinger). The authors of the article took into account multiple factors and 2 basic principles to understand the shape of trees. 1) a tree can not grow indefinitely without affecting the good conduction of the sap, from the roots to the leaves. 2) if a tree produces a mass of branches that are too long, it can collapse under its own weight. Moulia's group developed a virtual world where trees grow, reproduce, die in thousands of years, intercept the light, distribute the products of photosynthesis between the organs, produce seeds generating branches according to the orientations of light and wind. According to Moulia, the virtual simulation integrated meteorological data, biomechanical knowledge simulating breaks during storms. Hundreds of virtual islands bathed in sunlight were planted, light with seeds with random genetic parameters. During the simulation (MechaTree simulation software © Christophe Eloy, Central School, Marseille/IRPHE), the trees germinated, grew and developed in a dense forest, where the less genetically favored tres  disappeared (Self-thinning Law), and others reproduced and   grew  well. After thousands of hours, calculations and 200,000 years of forest life, it was observed that  surviving trees and forests followed the law of self-thinning, the correlations between the largest diameter of the tree, the sum of the diameters of the branches and the size of the trees, in which only the joint action of 2 variables: competition for sunlight and wind impact was crucial for modeling the shape of the trees.


Hasta hace poco, se pensaba que la modelación de la forma y evolución de los árboles,  tenía que ver únicamente con  la  incesante competencia por  la  luz solar,  eje fundamental de la fotosíntesis. Ahora, un grupo de físicos, biólogos, ingenieros hidráulicos   y genetistas franceses, bajo el liderazgo de Bruno Moulia (Research Director at INRA, Plant-Biomechanics and Plant Deveploment Biology, Clermont Auvergne/France), han añadido un segundo factor fundamental:el impacto del viento o si se quiere, la acción conjunta de ambos. El asunto es que el estudio lo han realizado mediante simulación del crecimiento y evolución de árboles virtuales durante 200,000 años (una extensión de los experimentos mentales de Einstein y Schrödinger). Los autores del artículo tuvieron en cuenta múltiples factores y 2 principios básicos para comprender la forma de los árboles. 1) un árbol no puede crecer indefinidamente sin afectar la buena conducción de la savia, de las raíces a las hojas.  2) si un árbol produce una masa de ramas demasiado largas, puede colapsar bajo su propio peso.  El grupo de Moulia, desarrollo   un mundo virtual donde los arboles crecen, se reproducen, mueren en miles de años, interceptan la luz, distribuyen los productos de la fotosíntesis entre los órganos, producen semillas generando ramas de acuerdo a las orientaciones de la luz y el viento. Según Moulia, la simulación virtual   integro datos meteorológicos, conocimientos biomecánicos simulando roturas durante las tormentas.  Se plantaron cientos de islas virtuales bañadas con luz solar, luz con semillas con parámetros genéticos al azar. Durante la simulación (MechaTree simulation software © Christophe Eloy, Central School, Marseille/IRPHE), los arboles germinaron, crecieron y se desarrollaron en un bosque denso, donde los arboles menos favorecidos genéticamente desaparecieron (Ley de Autoadelgazamiento), y otros se reprodujeron y crecieron más o menos bien. Después de miles de horas, cálculos y 200,000 años de vida forestal, se observó que los árboles y bosques sobrevivientes siguieron la ley de auto adelgazamiento, las correlaciones entre el diámetro mayor del árbol, la suma de los diámetros  de las ramas y el  tamaño del árbol, en las que solo la acción conjunta de  2 variables : competencia por la  luz solar e impacto del viento fue  crucial para la modelación de la forma de los árboles.   

Tuesday, January 09, 2018


Until recently it was thought that a black hole would only reach gigantic dimensions if it were able to swallow many galaxies and stars with enough mass in order to expand. Consequently, it is difficult to suppose the existence of supermassive black holes in the childhood (first 200-600 years), of our universe. However,  reality is different from many theories. The astronomer Eduardo Bañados (Observatories of the Carnegie Institution for Science and the Department of Astrophysical Sciences of Princeton), with images taken from the Las Campanas Observatory (La Serena/Chile), has discovered a quasar (J1342 + 0928), an unmistakable mark of a supermassive black hole, engulfing gas, barely 690 million years old, after the Big Bang (5% of the current universe's age). A black hole with a mass of 8 × 108M (800 million times, the mass of the sun), in a universe with a change to red z: 7.54, significantly neutral, in   reionization time (xHI> 0.33 (xHI> 0.11).  Period, in which our universe  barely came out of the dark phase and contained vast clouds of fog. Some scientists believe that these supermassive black holes were created by sudden growth (spur), defying Eddington's law (self-limitation of hole growth) According to another Chilean astronomer, Leopoldo Infante (Director of the Observatory: Las Campanas), there must have been a very rapid process that gathered a lot of mass in a special place in the universe, forming the quasar. Other scientists believe that by simply engulfing the collapsed clouds of this early universe, there would have been the growth of these supermassive black holes, in a time full of chaotic skirmishes between protons and naked electrons forming  neutral atoms of H, which absorbed bright UV light from the first stars. And, although we know that the reionization was completed 1 billion years after the Big Bang, the mass around this new quasar is half neutral, half ionized. As if that were not enough, Bolaños believes that there are other early supergiant black holes in the northern part of the universe. In this regard, a geometry specialist could predict the pillared areas (those that would support the greatest weight), during the accelerated formation of domes, being able to infer from there, the special parts of a universe in formation, that required more energy. Be that as it may, this discovery reinforces the theory that the function of black holes is to swallow redundant material to maintain a plan for the creation of the universe (fine tuning), even an order to create organic life.
Hasta hace poco se pensaba que un agujero negro solo alcanzaría dimensiones gigantescas si fuese capaz de engullir muchas galaxias y estrellas con suficiente masa a fin de   expandirse. En consecuencia, es difícil suponer la existencia de agujeros negros supermasivos en la infancia (primeros 200-600 años), de nuestro universo. Como siempre, la realidad es distinta a muchas teorías. El astrónomo Eduardo Bañados (Observatories of the Carnegie Institution for Science and the Department of Astrophysical Sciences of Princeton), con imágenes tomadas del Observatorio Las Campanas (La Serena/Chile), ha descubierto un quásar (J1342+0928), marca inconfundible de un agujero negro  supermasivo, engullendo gas,   de  apenas 690 millones  de años, después del Big Bang (5% de la edad del universo actual).  Un agujero con una masa de 8 × 108M (800 millones de veces, la masa del sol),  en un universo con un cambio al rojo z: 7.54,   significativamente neutral, en época de reionizacion (xHI > 0.33 (xHI > 0.11). Periodo, en la que nuestro universo salía de la fase de oscuridad y contenía extensas nubes de niebla. Algunos   científicos creen que estos agujeros negros supermasivos se crearon por crecimiento súbito (spur), desafiando la ley de Eddington (autolimitación del crecimiento del agujero). Según otro astrónomo chileno Leopoldo Infante (director del Observatorio: Las Campanas), debió haber existido un proceso muy rápido que reunió mucha masa en un lugar especial del universo, formando el quásar.  Otros científicos opinan que con solo engullir las nubes colapsadas de este universo temprano, se habría producido   el crecimiento de estos agujeros negros bebes supermasivos, en una época plena de caóticas escaramuzas entre  protones y electrones desnudos   formando  átomos neutrales de H, que absorbieron   luz UV brillante de las primeras estrellas.  Y, aunque sabemos que la reionizacion se completó 1 billón de años después del Big Bing, la masa alrededor de este nuevo quásar es mitad neutral, mitad   ionizada. Por si fuera poco, Bolaños cree que existen otros agujeros supergigantes tempranos en la parte norte del universo. Al respecto un especialista en geometría podría predecir las áreas pilares (las que soportarían el mayor peso), durante la formación acelerada de domos, pudiéndose inferir a partir de ahí, las partes especiales de un universo en formación. Sea lo que sea, este descubrimiento, refuerza la teoría de que la función de los agujeros negros es tragarse el material redundante para mantener un plan de creación del universo (fine tuning), incluso un orden para crear vida orgánica. 

Sunday, December 03, 2017


We have always been intrigued by the varied viral geometrical shapes, their location and meaning in the general context of living organic forms. Perhaps, the viruses are potential life, frustrous organic life or remains of organic life. Having been the ancestral viruses -for sure- extremely fragile -because of the second law of thermodynamics- it is logical to think that their old string of RNA or DNA, needed protective covers, as close as possible to microspheres in order to protect its genomic material and facilitate its insertion in host cells. As these small strings of ancestral RNA could not code spheres, it was opted for codes to form serial triangles, pentagons or hexagons, more affordable to be formed by organic elements, which after tessellation formed capsids like spheres. Fact that worked well until the formation of icosahedron viral capsids (20 faces), effective protectors of genomes with short RNAs, but not for viruses with larger RNA strings, as in the case of cancer-inducing viruses (polyomas, papillomas), with need for perfect tessellations and more complex and sophisticated geometric pairings. And so, as the Riemann mathematics helped Einstein understand that a geodesic is the shortest line in space, the construction of viral capsids using geometric shapes turned out to be also the simplest way to build effective genomic protective covers, capable of functioning and evolve according to circumstances. It must be understood -as several scientists have pointed out- that life is an emergent form of the evolution of matter, given certain environmental conditions. In a more mental tan practical work, which involves: mathematics-biology-mathematics, English scientists: Reidun Twarock (University of York/England) and Peter Stockley (University of Leeds), applied mathematical principles: geometry, Hamilton way, Penrose tilings, to understand RNA encodings, viral capsid formation, evolution and functioning of viruses, works that could open to the   english researchers the doors to a future Nobel Prize. Building on previous work by Watson, Crick, Franklin, Penrose Caspar-Klug and others, Twarock and Stockley have outlined the: a-Possibility of creating new and more effective antivirals and, b-Immunize millions of people against hundreds of viral diseases. After understanding Twarock, that mathematics would allow them to understand how viruses with larger RNA or DNA (polyoma and papilloma) produce effective capsids, she resorted to the use of group theory and discrete mathematics,  identifying first the positions of the protein subunits of the capsid of the human papilloma virus ordered in pentagonal structures like the Penrose tiles that do not repeat periodically, produce large RNA strings and leave no spaces when 2 subunits are joined. According to Twarock, there are remnants of that ancestral order in simple viral genomes. The scientist says that the viral genomic material plays a very active role in the formation of capsids, mentioning with emphasis the signals of viral packaging (contact areas of the walls of the capsid with the genome), which help the viral assembly, the same ones that are located according to the guidelines of the Hamilton way and whose current identification would certify the conservation of a primitive genomic organization. The viral packaging signals allow a protein to adhere to them, to which other proteins will later adhere forming orderly pathways that never repeat themselves (Hamilton way). The attack with antivirals to these signals would prevent the formation of capsids. For his part, Peter Stockley, tries to create stable non-infectious immunogens: vaccines able to induce the formation of antibodies without producing side effects. Twarock tries to use the viral packaging signals and the subsequent self-assembly to make synthetic RNA and viruses, unable to replicate, but generating an immune response.


Siempre nos han intrigado las variadas formas geometricas virales y su ubicación y significado en el contexto general de las formas organicas vivientes. Quizas, los virus sean vida potencial, ensayos frustros o restos de formas organicas de vida. Habiendo sido los virus ancestrales -con seguridad- extremadamente frágiles -en razón de la segunda ley de la termodinámica- es lógico pensar que sus antiguas cuerdas cortas de RNA o DNA, necesitasen cubiertas protectoras semejantes, lo mas cercanamente posibles a microesferas a fin de proteger su material genómico y facilitar su inserción en celulas huésped.  Como estas pequeñas cuerdas de RNA ancestral no podían codificar esferas, optaron por  codigos para formar triangulos, pentágonos o hexágonos en serie -mas asequibles a ser formadas por elementos organicos-  los que tras teselarse formaron cápsides semejantes a esferas. Hecho que funciono bien hasta la formación de cápsides virales icosahedricas (20 caras), protectoras eficaces de genomas con RNA cortos, pero no para virus con cuerdas de RNA, mas grandes, como el caso de  virus inductores de cáncer (poliomas, papilomas), con necesidad de teselados perfectos y emparejamientos geométricos mas   complejos y sofisticados. Y asi, como las matematicas de Riemann ayudaron a Einstein a entender que una geodésica es la línea mas corta en el espacio, la construcción de cápsides virales empleando formas geométricas resulto ser también la forma mas simple de construir cubiertas protectoras genómicas eficaces, capaces de funcionar y evolucionar de acuerdo a las circunstancias.  Debe entenderse -como lo han señalado varios científicos- que la la vida es una forma emergente de la evolucion de la materia, dadas ciertas condiciones medioambientales. En un trabajo mas mental que practico, que involucra:  matemática-biología-matematica, los científicos ingleses:  Reidun Twarock (University of York/England) y Peter Stockley (University of Leeds), aplican  principios matemáticos: geometría, algoritmos de Hamilton, geometría de Penrose, para comprender las codificaciones de RNA, formación de cápsides virales, evolución y funcionamiento de los virus, trabajos que podrían abrirles las puertas a un futuro Premio Nobel. Apoyandose en trabajos previos de Watson, Crick, Franklin, Penrose Caspar-Klug y otros, Twarock y Stockley han esbozado la: a-Posibilidad de crear nuevos y mas eficaces antivirales y, b-Inmunizar a millones de personas contra cientos de enfermedades virales. Tras entender Twarock, que las matematicas les permitirían  entender como virus con RNA o DNA mas grandes (polioma y papiloma), producen  cápsides eficaces, recurrio al empleo de la teoría de grupos y matematicas discretas, identificando primero las posiciones de las subunidades proteicas de la cápside del virus del papiloma humano ordenado en estructuras pentagonales al modo de las losetas de Penrose que no se repiten periódicamente, producen grandes cuerdas de RNA  y  no dejan espacios cuando se unen 2 subunidades. Según Twarock, existen remanentes de de ese orden ancestral en genomas virales simples.  La científica, afirma que el material genómico viral juega un rol muy activo en la formación de cápsides, mencionando con énfasis a las señales de empaquetamiento viral (áreas de contacto de las paredes de la cápside con el genoma), que ayudan al ensamblaje viral, las mismas que se ubican según  los lineamientos  de la via de  Hamilton y cuya identificación actual certificaria la conservación de una  organización genómica primitiva. Las señales de empaquetamiento viral permiten que una proteína se adhiera a ellas, a la que posteriormente se adherirán otras proteínas formando vías ordenadas que nunca se repiten (Via de Hamilton). El ataque con antivirales a estas señales impediría la formación de capsides.  Por su lado, Peter Stockley, intenta crear   inmunógenos estables no infecciosos: vacunas capaces de inducir la   formación de anticuerpos sin producir efectos colaterales. Twarock intenta emplear las señales de empaquetamiento viral y el subsecuente autoensamblaje para fabricar virus y RNA sintéticos, incapaces de replicarse, pero generando una respuesta inmune.

Saturday, November 11, 2017


From Quantamagazine images

We thought that prolongation of  human  useful life would be linked to human body recycling with embryonic stem cells or, to an enhancement of the immune system -that is- eliminating harmful noxious, would extend human life. Today, we have a novel, simple, extraordinary and improved proposal, proven again and again by the evolution of the species. The fossil remains of elephants (30 million years ago), when they struggled to acquire giant body conformations -showed a paradox- large bodies with prolonged lives are exposed to developing neoplasms. Therefore, Richard Peto (cancer epidemiologist/University of Oxford) was surprised that the large size of the elephants were not associated with high cancer frequencies. The low frequency of neoplasms (3%), in elephants, was understandable only if, shortly before acquiring large sizes, these animals had converted a portion of their genetic material junk into a defense against cancer. One hypothesis suggested that an old non-functional gene had been recycled from the abundant genomic junk, increasing the sensitivity of   incipient tumor cells to an early death (apoptosis). In 2015, J. Schiffman (Utah School of Medicine and Carlo Maley (Arizona State University), showed that  elephant's genome had 20 extra duplicates of the suppressor gene (p53), suggesting that the function of these copies had a cancer  suppressive effect. Vincent Lynch(University of Chicago), discovered that one of these oncogenes: LIF6 (a non-functional duplicate of an ancestral gene), had suddenly adopted an anti-cancer function. According to Lynch, elephants and their small relatives (armadillos, hyraxes, and aardvarks), also duplicate copies of their LIF gene (leukemia inhibitor factor), noting that normally this protein is related to fertility, reproduction and growth stimulation of embryonic stem cells. None of these duplicates could carry out normal gene functions.  In 2017, Lynch showed that 11 duplicates of LIF gene were incomplete (lacked the initial block of  coding protein of information and the promoter sequence to regulate the activity of the gene). Lynch found RNA transcripts in a LIF duplicate, which had a promoter sequence of a few thousand bases of LIF6 and a DNA sequence similar to a binding area for the p53 protein, suggesting that p53 regulated the expression of LIF6. The LIF6 gene blocked the activity of the gene and prevented apoptosis (a control to eliminate defective tissue). The LIF 6, eradicator of malignant cells, created breaks in the surrounding membranes of the mitochondria. Lynch also found in genomes of closely related species (manatees, hyraxes, extinct mammoths, mastodons), evidence that LIF 6 gene had been duplicated 17 times and lost 14, during the evolution of the lineage of the elephants. Hyraxes and manatees had duplicates of LIF6, but duplicates of p53 only appeared in live and extinct elephants. Most duplicates of LIF gene are pseudogenes: copies of unused genes that survived in genome at random. LIF 6 is a re-functionalized pseudogene that re-evolved into a functional gene, starting from an ancestor and only modern and extinct elephants possess it, since they diverged from their related species. Not all animals have a re-functionalized LIF 6, because this protection has risks. LIF6 suppresses cancer, but extra copies of LIF6 could kill normal cells if the copies were accidentally activated. The LIF is critical for the implantation of the embryo in the uterus. The LIF and p53 together regulate the efficiency of reproduction. When the same set of genes has 2 functions (reproduction and suppression of cancer), they come into conflict (antagonistic pleiotropy). The elephants resolved this antagonism by duplicating their p53 and LIF genes and dividing their functions. According to Maley, some copies of p53 and LIF are dedicated to fertility, while other pairs of LIF and p53 suppress cancer. This method would not be a unique solution, because certain whales have a single copy of p53 and LIF. According to Maley, this knowledge will have applications in the prevention of cancer.

Pensábamos que la prolongación de la vida útil humana estaría ligada al reciclaje corporal humano con células madre embrionarias o, a una potenciación del sistema inmune que, eliminando noxas perjudiciales, extendería la vida humana. Hoy, disponemos de una novedosa, sencilla, extraordinaria y mejorada propuesta, probada una y otra vez por la evolución de las especies. Los restos fósiles de elefantes de hace 30 millones de años, cuando pugnaban por adquirir conformaciones corporales gigantescas -muestran una paradoja-: los cuerpos grandes con vidas prolongadas están expuestos a desarrollar neoplasias. Por ello, A Richard Peto (epidemiólogo del cáncer/Universidad de Oxford), le sorprendió que el gran tamaño de los elefantes no se asociase a altas frecuencias de cáncer. La baja frecuencia de neoplasias (3%), en los elefantes, se hacía comprensible solo, si poco antes de adquirir grandes tamaños, estos animales hubiesen convertido una porción de su material genético basura, en una defensa contra el cáncer. Una hipótesis sugería que un gene antiguo no funcional, hubiese sido reciclado de la abundante basura genómica, incrementándose la sensibilidad de las células tumorales incipientes a una muerte temprana (apoptosis). El 2015, J. Schiffman (Utah School of Medicine y Carlo Maley (Arizona State University), demostraron que el genoma del elefante tenía 20 duplicados extras del gene supresor (p53), sugiriendo que la función de estas copias tuviese un efecto supresor del cáncer. Vincent Lynch: (Universidad de Chicago), descubrió que uno de estos oncogenes: LIF6 (duplicado no funcional de un gene ancestral), había adoptado de súbito una función anticancerígena.  Según Lynch, los elefantes y sus parientes pequeños (armadillos, damanes y cerdos hormigueros), también duplican copias de  su gene LIF (inhibidor de la leucemia), advirtiendo que normalmente esta proteína se relaciona con la fertilidad, reproducción y estimulación del crecimiento de células madre embrionarias. Ninguno de los duplicados podía llevar a cabo las funciones normales del gene.   El 2017, Lynch demostró que 11 duplicados del gene LIF, eran incompletos (les faltaba el bloque inicial de la proteína codificadora de la información y la secuencia promotora para regular la actividad del gene). Lynch encontró transcriptos de RNA en un duplicado LIF, que tenía una secuencia promotora de pocos miles de bases de LIF6 y, una secuencia de DNA semejante a un área de unión para la proteína p53, sugiriendo que el p53, regulaba la expresión   del LIF6.  El gen LIF6, bloqueaba la actividad del gene e impedía la apoptosis, un control para eliminar tejido defectuoso. El LIF 6 erradicador de células malignas, creaba roturas en las membranas circundantes de las mitocondrias. Lynch además encontró en genomas de especies estrechamente relacionadas (manatíes, damanes, mamuts extintos, mastodontes), evidencias de que el gene LIF 6 había sido duplicado 17 veces y perdido 14, durante la evolución del linaje de los elefantes. Damanes y manatíes tenían duplicados del LIF6, pero los duplicados del p53 solo aparecían en elefantes vivos y extintos.  La mayoría de los duplicados del gene LIF son pseudogenes: copias de genes sin uso que sobrevivieron en el genoma al azar. El LIF 6 es un pseudogene re-funcionalizado que re-evoluciono a un gene funcional, a partir de un ancestro y que solo lo poseen los elefantes modernos y extintos, desde que divergieron de sus especies relacionadas. No todos los animales tienen un LIF 6 re-funcionalizado, porque esta protección tiene riesgos. El LIF6 suprime el cáncer, pero las copias extras de LIF6 podrían matar células normales si las copias fuesen activadas accidentalmente. El LIF es crítico para la implantación del embrión en el útero. El LIF y el p53 regulan juntos la eficiencia de la reproducción. Cuando el mismo set de genes tiene 2 funciones (reproducción y supresión del cáncer), entran en conflicto (pleiotropia antagónica). Los elefantes resolvieron este antagonismo, duplicando sus genes p53 y LIF y dividiendo sus funciones. Según Maley, algunas copias de p53 y LIF se dedican a la fertilidad, mientras otros pares de LIF y p53 suprimen el   cáncer. Este método no sería una solución única, porque ciertas ballenas tienen una sola copia de p53 y LIF. Según Maley estos conocimientos tendrán aplicaciones en la prevención del cáncer.