Archive for noviembre 2010

Premio a científico Mexicano: Miguel Alcubierre Moya

Miguel Alcubierre MoyaCuando hablamos de científicos, ¿Cuántos mexicanos podrías mencionar?. En México, la ciencia se considera para los políticos una “pérdida” de dinero, pero hasta que nuestro país no invierta en ciencia y tecnología, dejando de consumir y volviéndonos creadores, no saldremos de ser un país subdesarrollado.

Hace unos días comentaba en un blog un artículo acerca del porqué no somos productivos, y es que el por qué de nuestra pocas ganas de trabajar y estudiar, viene desde muy dentro de nuestra estructura social y los que deberían llevar la batuta para hacer un cambio sólo hacen promesas sexenales.

Preferimos gastar en entretenimiento; como novelas, partidos de fútbol, y fiestas bicentenarias. Así es el mexicano, pero no generalicemos, en nuestro país existe talento, y muy bueno, de esto les platico en este post. Este año en el mes de Octubre se entregó la Medalla al Mérito en Ciencias 2009 al Dr. Miguel Alcubierre Moya, físico teórico mexicano por parte de la Asamblea Legislativa del Distrito Federal. ¿Pero, quién es Miguel Alcubierre?

Miguel Alcubierre Moya es físico teórico nacido en la Ciudad de México en 1964, obtuvo su licenciatura en la Facultad de Ciencias de la Universidad Nacional Autónoma de México. En 1994 obtiene su doctorado en la Universidad Cardiff en Gales. Al terminar estuvo trabajando en el Max Planck Institute for Gravitational Physics en Potsdam, Alemania, lugar donde desarrolló nuevas técnicas matemáticas para describir la física de los agujeros negros.

Estás nuevas técnicas son su más grande reconocimiento, puesto que su modelo matemático permitiría viajar más rápido que la luz sin violar el principio físico descrito por Albert Einstein, de que ningún objeto puede desplazarse a la velocidad de la luz. También ha trabajado en el Instituto de Ciencias Nucleares de la UNAM donde continúa con sus modelos sobre relatividad numérica, un esfuerzo para emplear ordenadores para solucionar ecuaciones física formuladas por Einstein.

Su trabajo fue incluso mencionado explícitamente por el escritor británico  Arthur C. Clark, en la solapa de un disco del compositor Mike Oldfield. Ha sido invitado a programas como Discovery Channel, e inumerables entrevistas alrededor del mundo, desde aquí podrás leer una de ellas y saber más de su vida personal.

Agujero negro según la visión de la NASA.Como mencioné, uno de sus trabajos versa sobre la posibilidad de viajar a una velocidad mayor a la de la luz, o al menos, llegar a un punto antes que un objeto desplazándose a esa velocidad, es ahí donde está el secreto. Alcubierre postula que el espacio puede ser deformado, esto es, alterando o deformando el espacio detrás del objeto, lo cual requeriría la energía equivalente a nuestro sol. Con esta energía acumulada en un punto específico, se lograría tal deformación. Lo que nos trasladaría al objetivo en segundos, a esto le llama el motor de curvatura (Warp Drive).

Este tipo de propulsión se basa en curvar o distorsionar el espacio-tiempo, permitiendo acercar dos puntos, evitando los problemas de la dilatación del tiempo descrito por Einstein. Algo curioso es que Miguel Alcubierre buscó la formulación matemática a esto inspirado por la serie de ciencia ficción Star Trek.

Puedes enterarte de más científicos mexicanos en la revista mexicana ¿Cómo ves?. La wikipedia tiene un artículo explicando los Warp Drive, y desde aquí encontraras un artículo detallado.

Fuente: elArsenal.NET, Tenoch.

Impresionante animación CGI de Alex Roman

Alex Roman es toda una inminencia en cuanto a generar gráficos CGI, desde su primeros inicios en el video titulado “Third & The Seventh”, ahora les mostramos su más reciente creación:

Silestone — “Above Everything Else”

“Third & The Seventh”

¿Dudaste si es real o no? Al paso que vamos es cada día más complicado diferenciar la realidad de la fantasía. Visita su espacio en Vimeo si quieres ver más videos de él: aquí.

Fuente: Gizmodo

Inteligencia Artificial: Fundamentos y marco histórico. Parte 3

Este artículo estará divido en varias partes:
Parte 1,  Parte 2, Parte 3

Economía  (1776 hasta el presente)

La Economía también juega un papel muy importante en la I.A. recordemos que es multidisciplinaria. ¿Por qué es importante la Economía? Cuando hablamos de esta ciencia, intrísecamente pensamos en dinero, idea que no comparten los economistas, fue el filósofo Adam Smith quién por primera vez expreso la Economía como una ciencia y la adjudicó a la idea de “Agentes indivuales que intentan maximizar su propio estado de bienestar“, en su libro publicado “An Inquiri into the Nature and Causes of the Wealth of Nation“. Con esta concepción tenemos claro el aporte: la toma de decisiones.

La Economía versa su estudio en la toma decisiones, en otras palabras la gente toma decisiones para obtener beneficios espeerados, así como se programa un agente en obtener el mejor resultado esperado. Este “beneficio deseado” fue formalmente expezado por Léon Walras, conocimiento con el cual se dieron otros aportes de Frank Ramsey (mejoramiento del beneficion esperado o utilidad), John Von Neumann (Matemático) y Oskar Morgenstern (Economía) en el famoso libro “The Theory of Games and Economic Behavior” publicado en 1944 por la Universidad de Princeton, considerada la publicación que creo el campo interdisciplinario de la Teoría de Juegos.

La Teoría de la Decisión, la cuál es una área interdisciplinaria de estudio relacionada con casi todas las ramas de la ingeniería, ciencias y psicología; combina la probabilidad con la Teoría de la Utilidad, sobre todo bajo incertidumbre conforma un marco complejo y formal para la toma de decisiones. Esto es muy importante, puesto que en las grandes economías no se puede estar presente ante todos los agentes, la incertidumbre es mayor y se basa más en probabilidades, pero en economías pequeñas los agentes sí afectan directamente a otros, se trata más de un juego como lo constata Von Neumann, apartir de esta Teoría de Juegos.

Por lo tanto, se trata todo esto de tomar decisiones racionales, aunque Neumann y Morgenstern notaron que un agente racional debía actuar de forma aleatoria, al menos en apariencia respecto a sus contrincantes. Aunque no preocupa mucho esto a la Economía en sí, más que tomar decisiones de forma secuencial y sobre todo en Investigacion Operativa, la cual destaca como una rama de las matemáticas que usa modelos matemáticos, estadísticos y algoritmos para la toma de decisiones. Es importante sobre todo porque permite un análisis tomando encuenta la escasez de recursos, para determinar como se puede optimizar un objetivo definido. Surge en la Segunda Guerra Mundial, cuando el Reino Unido optimizaba instalaciones de radar y aplicaciones civiles relacionadas con toma de decisiones complejas.

Para 1957 Richard Bellman formalizó las decisiones secuenciales en los procesos de decición de Markov, el cual proporciona un marco matemático para modelar la toma de decisión en situaciones azarosas. Estás aproximaciones han contribuído a la noción de agente racional. Herbert Simont ganó el premio novel en Economía mostrando su modelo basado en satisfacción, tiene varios grados de complejidad el tomar decisiones racionales, de ahí su importancia, y como Herbert en su modelo menciona la optimización de toma de decisiones aceptable en lugar de cálculos laboriosos para deciciones óptimas.

Estos modelos se acercan más a la forma de comportamiento de un humano, en el que la decisión tomada no siempre es la más óptima, pero es la mejor. Para los años 90 toma de nuevo interés lás técnicas de decisión teória para sistemas basados en agentes como lo publica Wellman en 1995.

Fin Parte 3

Bibliografía usada: Fuentes diversas del artículo e “Inteligencia Artificial un enfoque moderno primera y segunda edición” –  Stuart J. Russell y Peter Norvig.

Inteligencia Artificial: Fundamentos y marco histórico. Parte 2

Este artículo estará divido en varias partes:
Parte 1,  Parte 2

Matemáticas (Desde el año 800 al presente)

Junto con la filosofía, la matemática es la base de la I.A. y su historia se remonta desde el año 800 hasta el presente con una serie de constribuciones de grandes matemáticos, sin embargo para poder ser considerada la I.A. como una ciencia formal necesitó de una formulación matemática en tres áreas fundamentales: Computación, lógica y probabilidad; así, se necesitaron reglas formales par poder obtener conclusiones válidas. Para obtener estas conclusiones válidas nos basamos en la lógica formal, que es parte de la lógica, y se dedica al estudio de la inferencia mediante la construcción de lenguajes formales. Este concepto nace con los filósofos de la antigua Grecia.

Uno de las grandes contribuciones fue por parte de George Boole y su lógica proposicional más conocida como lógica Booleana, con el trabajo de Boole en adelante empieza el desarrollo matemático; continúa con Gottlob Frebe y su lógica de primer orden, quien extendió la lógica empleada por Boole para incluir objetos y relaciones entre ellos. Actualmente lógica de primer orden se utiliza como el sistema más básica de respresentación del conocimiento, también se tiene la contribución de la teoría de referencia de Alfred Tarski, quien explica como relacionar objetos de una lógica con objetos del mundo real. Con las bases establecidas se pasó a definir los límites de lo que se podía hacer con la lógica y la informática.

Con esta nueva concepción de objetos se introduce lo que se piensa es el primer algoritmo no trivial por parte de Euclídeo. Cabe señalar que en matemáticas el término trivial se usa frecuentemente para los objetos que tienen una estructura simple o bien para referirse a una opción o caso poco interesante pero que debe mencionarse para complementar (como un axioma o un conjunto vacío). Aunque se refiere a la Persia del siglo IX y a Al-Khorwarazmi como de los primeros matemáticos en usar a los algoritmos como objetos.

Los esfuerzos de matemáticos como Boole aportaron los primeros algoritmos para llevar acabo deducciones lógicas, todo para formalizar el razonamiento matemático, esto es lógica deductiva.

Entscheidungsproblem (Problema de decisión) propuesto entre los 23 problemas por David Hilbert, fue un reto de lógica simbólica para encontrar un algoritmo general que decidiera si una fórmula del cálculo de primer orden es un teorema. Un poco más tarde Alonzo Church Y Alan Turing, demostraron que ese imposible escribir tal algoritmo. Esto respondía a la icognita de Hilbert sobre si hay límites fundamentales en la capacidad de los procedimientos efectivos de demostración. Por lo tanto existen límites reales, demostrado por Kurt Gödel en 1930 para la lógica de primer orden con su famoso teorema de la incompletitud.

En cualquier formalización consistente de las matemáticas que sea lo bastante fuerte para definir el concepto de números naturales, se puede construir una afirmación que ni se puede demostrar ni se puede refutar dentro de ese sistema. Kurt Gödel .

Estas contribuciones afectaban en gran medida a la tesis de Church-Turing, donde se afirma que la máquina de Turing es capaz de calcular cualquier función computable, aunque esto aceptado de forma generalizada, se sabe que de las interpretaciones anteriores por Gödel, que existen algunas funciones de los números enteros que no se pueden representar mediante un algoritmo. ¿Realmente es todo el pensamiento computable? ¿Puede ser todo ello expresado bajo un algoritmo entendible?

Esto nos lleva al camino de la intratabilidad representada en la Complejidad computacional que estudia la complejidad inherente a la resolución de un programa computable. Los recursos más estudiados son: el tiempo y el espacio, que miden el tiempo ejecución de un código y la memoria que ocupa. Entonces la intratabilidad que en términos generales se dice de aquellos problemas intratables cuando el tiempo necesario para la resolución de casos particulares de dicho problema crece exponencialmente con el tamaño de dichos casos, por ejemplo la deducción del camino a tomar cuando la opciones son demasiadas, no siempre se escoge la más eficiente. Estas diferencias entre el crecimiento polinomial y exponencial fue presentado en los 60 por Cobham y Edmonds.

Los problemas grandes, considerando el entorno de ejecución, pueden ser intratables y por consiguiente es mejor dividirlos en subproblemas, muy a acorde a como funcionan algunas soluciones como @SETI que buscan encontrar vida extreterrestre analizando paquetes que son tratados de forma individual por un sin número de personas que donan tiempo de CPU.

En los 70’s Steven Cook y Richard Karp demostraron la existencia de grandes clases de problemas que implican sobre todo razonamiento y búsqueda combinatoria canónica que son NP-completos, de ahí nace la teoría de la NP-completitud. Un ejemplo de ello en teoría de grafos es el isoformismo de grafos: Dos grafos son isomorfos si se puede transformar uno en el otro simplemente renombrando los vértices.

Se remonta al optimismo de los primeros computadores y las falacias de la prensa al pronunciar a las primeras computadoras como ¡Super cerebros eletrónicos que eran más rápidos que Einstein!, aunque no alcanzamos esos niveles, en la I.A. los sistemas inteligentes se caracterizan por el uso apropiado de los recursos, el conocimiento general de las cosas convierte al mundo en un ejemplo de problema extremadamente grande. Unos problemas conllevan a tener cierto espectro del conocimiento humano que bajo los dispositivos actuales sería complicado de obtener resultados satisfactorios cuando se trabaja con problemas NP-completitud puesto que no hay suficiente memoria y el tiempo es excesivo si lo comparamos con lo bien administrado en cuanto a recursos es el cerebro.

Por último tenemos la teoría de la probabilidad que pareciera es lo más acertado a nuestra realidad, aunque algunas situaciones pueden ser calculadas bajo probabilidades (como las caras de una modena en un n lanzadas) no dejan de ser eso, aproximaciones. Gerolamo Cardano fue quien propuso la idea de la probabilidad, que pasó a ser imprescindible de las ciencias cognitivas, sobre todo en los cálculos con incertidumbres y teorías incompletas. Entre los mayores expositores de la probabilidad encontramos a Pierre Fermat, Blaise Pascal, Pierre Laplace, James Bernoulli, Tomas Bayes, etc, este último y su aportación del análisis Bayesiano conforman la base de las propuestas más modernas que abordan el razonamiento incierto en I.A.

Se puede usar las probabilidades en sistemas expertos, que tienen una base de conocimiento sobre algún tema puntual, que hacen inferencias para averiguar el valor de un conjunto de variables en función de la evidencia que tenemos. Las conclusiones no son deterministas, la mayor parte de las veces el conocimiento que se obtiene de una variable es incierta pero se puede llegar a conclusiones válidas, mientras más información, más acertado será el resultado.

Fin Parte 2

Bibliografía usada: Fuentes diversas del artículo e “Inteligencia Artificial un enfoque moderno primera y segunda edición” –  Stuart J. Russell y Peter Norvig.

Tercer aniversario de Robotics Open Source

ROS (Robotics Open Source) acaba de cumplir su tercer aniversario. Empezó con la colaboración de STAIR (STanford Artificial Intelligence Robot) y Willow Garage, y se formo en un proyecto Open Source de robótica que hoy día cuenta con más de 50 repositorios y robots en distintas universidades y proyectos individuales.

Con el tiempo la comunidad y el sector privado han colaborado de manera significativa agregando: percepción 3D,  manipulación de objetos, robótica cognitiva,  cartografía, planificación de movimientos, etc. La lista de contribuciones sigue creciendo junto con el proyecto.

Repositorios ROSPaquetes ROS

Los principales contribuidores son las academias y universidades alrededor del mundo. Como muestra las imágenes el crecimiento ha sido exponencial en tan sólo tres años de existencia del proyecto.

El siguiente video muestra el avance que ha tenido el proyecto en este tiempo, mostrando la cantidad contribuciones, preferentemente de universidades y academias de robótica e inteligencia artificial, quizá hayas visto anteriormente alguno de los siguientes videos:

Si quieres saber más no dejes de visitar el sitio oficial de ROS.

Fuente: ReadWriteWeb, ROS

Kinect Hackeado; video del hack y funcionamiento del infrarrojo

Kinect acaba de salir, y eso sólo significa una cosa: estará a merced de la scene para tratar de ser hackeado. Microsoft sabe esto, por lo que ha decidido ofrecer $2000 dólares al que logre desarrollar un driver Open Source para controlar el dispositivo. Vaya que ha sido rápida la respuesta por que ya tenemos un ganador, NUI Group, aunque en este punto sólo puede controlar el cabezal, vean el video:

Es muy complicado lanzar un producto hoy día sin ser “escruñidado” bajo la lupa, tanto de software como de hardware, los chicos de iFixit se han dado a la tarea para desbaratar Kinect y ver su interior:

Kinect por partes

Y por último les dejo un video del funcionamiento de los lentes infrarrojos del Kinect; la sala de estar es bombardeada por diminutos pulsos luz para detectar en todo momento los objetos que se encuentren en el área:

Fuente: Gizmología, Noticias2D

Actualización:  Ya lograron acceder a la cámara del Kinect

ASIMO festeja sus primeros 10 Años

En un artículo pasado les comentaba de un impresionante Androide con expresiones faciales bastante bien hechas, sin embargo, si te preguntas cuál es el Androide/Robot más avanzado en general, sin dudar contestaré ASIMO, te guste o no la Robótica, te habrás topado con este nombre alguna vez pues ha sido presentado en centenares de eventos alrededor del mundo.

ASIMO (“Advanced Step in Innovative Mobility“- paso avanzado en movilidad innovadora) es un robot creado por la división de robótica avanzada de la empresa HONDA, sí, no sólo hacen automóviles, tienen toda una industria aparte incluyendo la que nos concierne, la robótica. Han pasado ya 10 años desde que se anunció este proyecto, y en el video que verán a continuación podrán observar cómo ha ido evolucionando hasta lo que ahora es:

Felicidades ASIMO, seguimos pendientes de tu evolución, puedes saber más de este proyecto siguiendo este enlace. Si deseas ver más a fondo su evolución, desde abadiadigital.com han preparado todo un post siguiendo todos los modelos de ASIMO.


Cae Silverlight ante HTML 5

Silverlight LogoHasta el día de hoy sólo Microsoft sabe la razón de la existencia  o el motivo de vivir Silverlight. En un mundo “pasado” donde las aplicaciones RIA, estaba siendo dominadas enteramente por Flash (y su intento de meter FLEX), y que actualmente HTML 5 + Javascript han tomado todo control.

Entonces, ¿Cuál es la razón de ser de Silverlight?  Ésta misma pregunta se han hecho en Redmond, donde Microsoft ha dado un pequeño comunicado que dice que relegarán a Silverlight a su nueva plataforma, el Phone 7, dejando en escritorio sólo a HTML 5.

La razón que HTML 5 esté a la delantera de Flash y Silverlight no es por ningún motivo la facilidad de trabajar en ellos, si no más bien, el que sean elementos libres y estándares que no estén atados a un sistema operativo ni a una tecnología en particular ni mucho menos bajo un imperio como Adobe, Apple o Microsoft. Desde el punto de vista de un programador, no existe una herramienta o entorno de desarrollo de VERDAD (creo ni de mentira) para desarrollar tanto en HTML5 como en Javascript, todo intento de herramienta está ha años luz de alcanzar a Flash o Silverlight, lo que hace el desarrollar para esto estándares un prueba y error.

Fuente: TechCrunch