Google
Support independent publishing: buy this book on Lulu.

Monday, January 25, 2016

THINKING MACHINES



THINKING MACHINES: FIRST GENERATION

It was thought that building a similar or greater entity than human brain was impossible. But advances in science and technology in this direction are promising. Within 30 years we will certainly have the first prototype of the positronic brain predicted by I. Asimov. Although there are several avenues to advance toward this goal, the truth is that we sense that the culmination of this achievement will be   a mixture of advances in artificial intelligence (AI) and experiments in neurobiological sciences: a) European Human Brain Project (HBP), which attempts to reproduce technologically the characteristics of the human brain and build virtual robots controlled by brain models. b) Brain Activity Map (BAM), which attempts to map  the  brain to understand brain function  deciphering the neural code that creates our perceptions and experiences c) Human Connectome project that sheds light on the construction of memory, deletion and creation of  new neural networks, etc. Perhaps unwillingly, the fast progress and improvement of the Internet induced by the urgent need to provide accurate, fast, fluid and intuitive data to  user information has created d) Deep Learning (DL), with the help of pioneers like: Yoshua Bengio (University Montreal / Canada). Yann LeCun (U. of NY), Geoffrey Hintonis (Google), Jeff Dean (Google Brain), etc. Although currently DL, makes instant translations of languages and recognized visual and auditory images, it does just taking advantage of previously entered data (labeled data), categorized by real people, who after teaching machines to recognize how  an object looks, these simply   recall it, at the request of the user. DL pioneers are now trying to eliminate this step, making the machines to employ unlabeled data (not provided by humans), making hidden pictures, audios, phrases and emotions completed by computers -independently-  without providing machines previous information. Combinations of labeled and unlabeled data embedded in artificial neural networks, are currently employed by Google and Baidu, with marked success. Bengio models teach the machine to capture statistics from unlabeled data structures, using previous data to create new images, arbitrarily answers questions about realities hidden variables and assumed facts based on previously observed facts. AI of the 80s was deficient because computers   were built step by step with explanations inserted through reasoning. Unlabeled data allow the machines to take actions to address new situations, positioning a new generation of thinking machines. DL pioneers say that problems of development of unlabeled data algorithms (smart and functional, generated by machines without human intervention) are resolved. Bengio says that these algorithms give  sense to  all data types that we see, training machines to understand the whole world around us.



PRIMERA GENERACIÓN DE MAQUINAS PENSANTES


Se pensaba que  construir  un cerebro similar   o superior al humano era tarea  imposible. Empero los avances en ciencia y tecnología en esa dirección,  son prometedores. Dentro de 30 años tendremos con seguridad  el primer prototipo de cerebro positrónico pronosticado por  I. Asimov. Aunque se avanza hacia esa meta  por varias avenidas, lo cierto es que se intuye que la culminación de este logro será producto de una mezcla de avances en inteligencia artificial (IA)y lo extraído de  experimentos en ciencias neurobiológicas :a) Proyecto europeo Human Brain Project (HBP), que intenta  reproducir tecnológicamente las características del cerebro humano, transformar  modelos cerebrales en  hardware y construir robots virtuales controlados por modelos cerebrales, b)  Brain Activity Map (BAM), que intenta mapear biológicamente las  funciones cerebrales para  comprender el funcionamiento  cerebral, descifrando el código neural que origina nuestras percepciones y experiencias  c) el proyecto Conectoma Humano que  da luces sobre la construcción de la memoria, eliminación y creación de nuevas redes neuronales, etc.  Sin desearlo quizás,  el raudo avance y perfeccionamiento del internet   inducido por la impostergable necesidad de proporcionar  información certera, veloz, fluida e intuitiva a  los  usuarios ha  creado  d) Deep Learning (DL), de la mano de  pioneros como :Yoshua Bengio (Universidad de  Montreal/Canada).   Yann LeCun (U. de NY),  Geoffrey  Hintonis (Google), Jeff Dean (Google Brain),etc. Aunque de momento DL,  realiza  traducciones instantáneas de idiomas, reconoce  imágenes  visuales y auditivas,  lo hace valiéndose solo de datos introducidos previamente (labeled data), categorizadas por personas reales, quienes  tras enseñarle a  las computadoras   a reconocer como  luce un  objeto, estas  simplemente la recuerdan,  a petición del usuario. Los  pioneros de DL intentan ahora  eliminar este paso, haciendo que las maquinas empleen    unlabeled  data (datos no proporcionados  por humanos), logrando que  fracciones  ocultas de imágenes, audios, frases y hasta  emociones  sean completadas por las computadoras -   independientemente-  sin necesidad de  proporcionarles información  previa. Combinaciones de  labeled y  unlabeled data insertas en redes neuronales artificiales, son  empleadas de momento por  Google y Baidu, con marcado éxito. Los modelos de Bengio enseñan a la maquina a capturar estructuras estadísticas de unlabeled data,   con ayuda de las cuales  la computadora    reconoce  caras, crea nuevas imágenes, responde arbitrariamente  a preguntas sobre variables y  supone realidades ocultas en base a lo observado previamente.  La  IA,  de los años  80 es deficiente  porque las maquinas fueron construidas con explicaciones paso a paso de lo insertado mediante razonamiento.  El empleo  de unlabeled data  permitirá tomar  acciones ante nuevas situaciones, posicionando a una  nueva  generación de  máquinas pensantes. Los pioneros de DL  aseguran que los problemas del   desarrollo de algoritmos tipo unlabeled data (inteligentes y funcionales, generados por  maquinas sin intervención humana), están resueltos.   Para  Bengio estos algoritmos dan  sentido a todos los tipos de  datos que vemos,  entrenando a las  maquinas a comprender la totalidad del mundo que nos rodea.  

Labels: , ,

0 Comments:

Post a Comment

<< Home