Brandon Francisco Hernández Troncoso, exalumno de los programas en...
Servicios de Telecomunicaciones Satelitales Empleando Constelaciones Tipo Flor
Ing. Francisco Villa, Departamento Académico de Sistemas Digitales-ITAM, 6 de Diciembre de 2007 13:00 a 14:30 horas, Salón 301 Río Hondo
Este trabajo tiene por objetivo el analizar la factibilidad de proporcionar servicios de telecomunicaciones, tales como transmisión de datos e imágenes estáticas, voz, servicio de Internet en tiempo real, entre otros, aprovechando las características de las constelaciones satelitales tipo flor.
Data Mining
Dr. Gordon Linoff, Data Miner SAS, 13 de Noviembre de 2007, 19:00 a 20:00 horas, Auditorio Rio Hondo
La conferencia abordará un acercamiento a las técnicas aplicadas en minería de datos.
1. Proceso de la minería de datos.
2. Creación de modelos de minería de datos.
Problemas en el manejo del Agua y del Petróleo
Dra. Susana Gómez Gómez, IIMAS-UNAM, 8 de Noviembre de 2007,13:00 a 14:30 horas, Salón 301 Río Hondo
Para administrar adecuadamente la producción y la irrigación es necesario resolver problemas de identificación de coeficientes que caracterizan al yacimiento o al cultivo bajo estudio. Ilustraremos los retos matemáticos y computacionales a través de ejemplos del estudio de las propiedades hídricas del suelo, del uso de percepción remota para la irrigación de cultivos y de la caracterización de yacimientos petroleros.
Un enfoque Sistémico para el Modelado de Procesos de manufactura
Dr. Antonin Ponsich, Departamento Académico de Ingeniería Industrial y Operaciones-ITAM, 25 de Octubre de 2007, 13:00 a 14:30 horas, Salón 305 Río Hondo
Debido a las condiciones extremas en los hornos de cocción del vidrio, que impiden efectuar las mediciones adecuadas, es una tarea difícil definir modelos precisos representando los fenómenos físicos ocurriendo en estos sistemas. Esta observación explica el desarrollo las dos tendencias actuales para modelar los hornos: los métodos de mecánica de fluidos computacional y la representación por sistemas de tipo “caja negra” (sólo considerando entradas y salidas). El enfoque sistémico presentado propone representar el comportamiento dentro de los hornos por medio de una red de reactores químicos ideales: además de modelar los aspectos hidrodinámicos característicos de los flujos, la perspectiva (a más largo plazo) es agregarle conceptos cinéticos y/o energéticos para conseguir una representación global del horno. Este enfoque se basa, en primer lugar, en una descomposición del horno en dos entidades: la cámara de combustión y el baño de vidrio. En un segundo tiempo, se realizan simulaciones de mecánica de fluidos computacionales (CFD) sobre ambas zonas del horno para conseguir las informaciones hidrodinámicas “experimentales”, necesarias al diseño de un modelo de red. Finalmente, la identificación de la estructura y de los parámetros de la red de reactores se formula como un problema de programación mixta no-lineal, cuyo objetivo es la minimización de la diferencia cuadrática entre las salidas experimentales y las del modelo. El problema de optimización se resuelve por medio de métodos exactos disponibles en el paquete GAMS y los resultados proporcionan estructuras con una diferencia mínima entre el modelo y la experiencia. Además, destacan, en ambas zonas del horno, volúmenes “inútiles” o “muertos”, que no participan en el flujo global. Constituyen finalmente una base sobre la cual se pueden apoyar futuras perspectivas, como los estudios cinéticos y/o energéticos ya mencionados.
¿Se pueden predecir los terremotos? Un debate siempre actual
Dr. Fernando Angulo Brown, Departamento de Física, ESFM - IPN 11 de Octubre de 2007, 13:00 a 14.30 horas, Salón 305 Río Hondo
¿ Hoy en día existe consenso de geofísicos, sismólogos y físicos en la comunidad internacional de que los sismos no son predecibles en el sentido de saber con anticipación su magnitud, su epicentro y su momento de ocurrencia. En general los sismos ocurren en la corteza terrestre, que es un sistema físico extraordinariamente complejo y con una dinámica no lineal. A pesar de esto, diversos grupos de investigación en el mundo continúan investigando el problema de la predicción sísmica. En esta plática se presenta un panorama del estado del arte de este campo y se describen algunos esfuerzos en esta dirección realizados en México.
Información Cuántica
Dra. Ivette Fuentes Gurudi, Instituto de Ciencias Nucleares-UNAM, 20 de Septiembre de 2007, 19:00 a 20:00 horas, Salón B5 Río Hondo
Para realizar cualquier proceso de cómputo ó manipulación de la información es necesario codificar ésta en los estados de un sistema físico. Actualmente todo proceso de información se hace usando las leyes de la física clásica. La teoría de la información nos dice entonces que problemas son, en principio, computables dadas éstas leyes. Sabemos que, por ejemplo, la factorización de números primos usando métodos clásicos se vuelve prohibitivamente difícil al aumentar el número de dígitos. Sin embargo, en el siglo pasado aprendimos que existe una descripción fundamental del mundo físico: la mecánica cuántica. Es entonces importante entender como procesar la información usando leyes cuánticas y aprender a usar estos efectos para mejorar los procesos de cómputo. En los últimos años se han hecho grandes avances en el desarrollo del cómputo cuántico, pero éste aun no es una realidad. Sin embargo, otras aplicaciones de la teoría de la información cuántica, como son las comunicaciones cuánticas (teleportación) y la criptografía cuántica, ya son una realidad experimental. En esta plática explicaré cuales son los conceptos básicos detrás del procesamiento de la información cuántica.
Procesamiento de Imágenes Médicas: Tres Aplicaciones
Dr. Leo Joskowicz, School of Engineering and Computer Science The hebrew University of Jerusalem- Israel, 6 de Septiembre de 2007 19:00 a 20:00 horas Salón B5 Río Hondo
En esta plática presentaremos tres aplicaciones prácticas del procesamiento de imágenes médicas que desarrollamos en el Laboratorio de Cirugía Asistida por Computadora y Procesamiento de Imágenes Médicas de Jerusalén en: 1) visualización y medición de tumores en el hígado 2) creación de un modelo especifico del paciente para simulaciones y entrenamiento prequirúrgico a partir de tomografías angiográficas y 3) predicción y clasificación de posibles lesiones cancerosas a partir de imágenes de inhalación. Las tres aplicaciones se desarrollaron en conjunto con el Hospital Hadassah y la segunda con la compañía Simbionix.
Filtraje Estocástico: desde Kolomogorov y Wiener hasta nuestros días
Dr. José Luis Farah, Departamento Académico de Matemáticas-ITAM, 16 de Mayo de 2007, 13:00 a 14:30 horas, Salón 108 Río Hondo
Se ofrece una visión somera del filtraje estocástico desde los primeros días de su invención por A. N. Kolomogorov y N. Wiener en la década de 1940 y la culminación de estos trabajos en el trabajo de R. Kalman alrededor de 1960 (filtraje lineal). Se destaca la mención de los algoritmos de cómputo diseñados por G. Bierman y C. Thornton en la década de 1970, y el descubrimiento de la relación del filtro de Kalman con Estadística Bayesiana. El filtraje no-lineal surge con la ecuación de H. Kushner en 1964 entre otros. Hasta la fecha, el tema de cómputo del filtro no lineal no está agotado, a pesar de nuestro acceso a máquinas muchas veces más poderosas y rápidas que hace 40 años. La cantidad de aplicaciones que generó la técnica kalmaniana y su secuela no-lineal, es enorme. En la plática, se ofrecen en comentario solamente algunas de ellas en diversas áreas de Ingeniería, incluyendo el control de navegación satelital.
Cadena de Valor del Sector Pesquero en México: Tendencias y Análisis de Competitividad
Dr. Guillermo Abdel Musik, Departamento Académico de Ingeniería Industrial y Operaciones-ITAM, 9 de Mayo de 2007 13:00 a 14:30 horas, Salón 108 Río Hondo
La cadena de suministros de productos agrícolas perecederos (como las frutas y verduras) es uno de los sectores más dinámicos y competitivos del campo mexicano. Tan solo en este año, se estiman exportaciones por 7,500 millones de dólares de frutas y hortalizas a nuestros principales socios comerciales. Estos productos también son relevantes a nivel nacional, ya que representan alrededor del 16% del gasto promedio de alimentos en los hogares. Por lo que una toma de decisiones que mejore en la eficiencia de toda la cadena en su conjunto, es de suma importancia para desarrollar la economía rural de México. El objetivo de esta plática es describir las características generales de la cadena de valor del sector pesquero mexicano, analizar las principales tendencias, presentar los factores clave que inciden sobre la competitividad del sector pesquero, así como identificar las fortalezas, oportunidades, debilidades y amenazas que enfrenta el sector para la formulación de estrategias adecuadas de fomento.
Incorporación de Priors y Datos Muestrales en Experimentos por Simulación
Dr. David Muñoz Negrón, Departamento Académico de Ingeniería Industrial y Operaciones-ITAM, 18 de Abril de 2007, 13:00 a 14:30 horas, Salón 105 Río Hondo
En esta presentación se propone un marco teórico para estimar medidas de desempeño en experimentos por simulación que permiten incorporar tanto datos históricos como priors sobre parámetros del modelo de simulación. Nuestro enfoque es apropiado para modelar escenarios futuros y toma en cuenta tanto la incertidumbre paramétrica como la estocástica. Se presentan dos métodos de estimación cuyo error de estimación se aproxima a cero a medida que crece el número de repeticiones del experimento y se discutirán dos ejemplos donde se aplicó exitosamente esta metodología, el primero en Industrias Peñoles y el segundo en el Instituto Nacional de Educación para Adultos.
Herramientas de Análisis en la Planificación de Movimientos de Robots
Dr. Marco Morales, Texas A & M University, 26 de Marzo de 2007, 13:00 a 14:30 horas, Sala de Conferencias Rio Hondo
La planificación de movimientos para sistemas dinámicos es necesaria en áreas tan diversas como la robótica, la biología y química computacionales, la animación de caracteres para juegos y películas y la creación de prototipos virtuales. Los algoritmos de planificación encuentran una secuencia de movimientos para que un robot pase de un estado inicial a un estado final sin violar ninguna restricción (como choques con obstáculos). Para poder abordar este problema computacionalmente intratable, una familia de planificadores construye un modelo aproximado de los movimientos válidos del robot mediante muestreo aleatorio. A la fecha se han desarrollado muchos planificadores basados en muestreo pero desafortunadamente no sabemos cómo seleccionarlos porque carecemos de herramientas cuantitativas para analizar las características de los problemas y el desempeño de los planificadores. En esta plática, describiremos un conjunto de herramientas para el análisis cuantitativo de características de los problemas y del desempeño de los planificadores basados en muestreo para decidir cuándo y dónde emplearlos y mostramos algunas aplicaciones. Para poder analizar y comparar el desempeño de distintos planificadores, damos seguimiento a la calidad de los movimientos muestreados por el planificador y sus restricciones. Para poder decidir cuándo interrumpir el uso de un planificador o cambiar de estrategia, evaluamos la velocidad a la que mejora la calidad del modelo. Para poder seleccionar la mejor estrategia de planificación para cada región del problema, analizamos grupos de muestras que ayuden a identificar las distintas regiones y a evaluar el desempeño de los planificadores. En general, estas herramientas han abierto nuevas áreas de investigación en algoritmos de planificación de movimientos adaptables y tienen el potencial de ser extendidas para el estudio de los movimientos importantes para distintas acciones en sistemas tales como proteínas o robots humanoides.
Jerarquías y Juegos: Dos Proyectos Recientes de Inteligencia Artificial
Dr. Andrés Gómez de Silva, Departamento Académico de Computación-ITAM, 14 de Marzo de 2007, 13:00 a 14:30 horas, Salón 108 Río Hondo
En la primera parte de la plática se presenta un proyecto en el que se exploró los efectos de la subdivisión jerárquica del espacio de búsqueda en los algoritmos de búsqueda de Dijkstra y A* en la red del metro de la Ciudad de México. En la segunda parte se describe una implementación computacional de patolli, un juego de tablero típico de los aztecas, y una serie de experimentos que se realizaron para evaluar las distintas estrategias de juego alternas programadas.
Bases de Datos Negativas
Dr. Fernando Esponda, Yale University, 1 de Marzo de 2007 13:00 a 14:30 horas Salón 105 Río Hondo
Supongamos una base de datos que almacena el nombre y el número de tarjeta de crédito de todos los clientes de amazon.com. En esta plática presentaré un esquema para proteger dicha información, en donde todos los posibles nombres y números de tarjeta de crédito---todas las posibles cadenas de cierta longitud---excepto las que se encuentran en la base de datos original, son almacenados. Explicaré como construir, eficientemente, bases de datos "negativas", la manera en que pueden ser utilizadas para fines de seguridad, y las operaciones que con ellas se pueden efectuar. Discutiré la idea de información negativa con más detalle y indicaré en que otras áreas puede ser de utilidad.
Quantum Computation - The Hype and Beyond
Dra. Dorit Aharonov, Universidad Hebrea de Jerusalem, 21 de Febrero de 2007, 12:00 a 13:30 horas, Sala de Conferencias Río Hondo
Quantum computers, if ever built, will be capable of performing tasks that are simply impossible for nowadays computers. One of these tasks is the possibility of breaking the very commonly used cryptosystem called the RSA. The extra source of power of quantum computers stems from the fact that they will be based on the extremely counter intuitive theory of quantum mechanics. I will explain what we might expect from such computers, what are their underlying principles, and what are the challenges that we are facing before we can have a quantum computer on our desk.
Estrategia de control de temperatura vía Modulación de Anchura de Pulso
Dr. Mauricio García, Centro de Cómputo ITAM, 15 de Febrero de 2007, 13:00 a 14:30 horas, Salón 111 Río Hondo
La necesidad de tener mayor proceso de cómputo, en los DATA CENTER institucionales, ha llevado a un aumento en los niveles de consumo energético que están filtrándose a la parte operativa del medio ambiente para congeniar en el recinto la distribución de espacios, temperatura, humedad y la calidad de energía. Cuando la industria de las computadoras cambió de las fuentes lineales a fuentes conmutadas y de tecnología bipolar a CMOS, se pensó en que se tenía resuelto el problema de energía y calor, sin embargo el consumo de energía del equipo instalado ha estado incrementándose rápidamente y ha superado con creces al equipo instalado hace 10 años. Los DATA CENTER se están diseñando y acondicionando con una vida útil de hasta 15 años y el ITAM debe saber congeniar la calidad de energía con el consumo energético y su ambiente térmico. En este trabajo se presenta un esquema de monitoreo novedoso y una estrategia de control de temperatura vía PWM, mejorando el consumo energético y la temperatura del medio ambiente en el DATA CENTER del ITAM.