Contacto      Facebook      Twitter
Conferencias magistrales académicos



Faculty of Sciences, Technology
Luxembourg University.
Luxembourg
Título:
Definitivamente, la computación en nubes es a donde hay que ir. Pero ¿Cuáles son los nuevos requerimientos de seguridad en este contexto? ¿Por qué confiaría a otra compañía que aloje sus Tecnologías de la Información (IT), o compartirla con otros clientes en el mismo equipo? Esta presentación intenta enfatizar los retos de la computación en nubes en términos de la seguridad y confidencialidad. Se describirán las limitaciones de los sistemas actuales, así como los problemas de cumplimiento con las normas de seguridad y auditoría. Finalmente, se introducirán nuevas generaciones de software, soluciones basadas en software en crypto-chips, procesadores ARM y nuevos protocolos de seguridad.

Pascal Bouvry obtuvo su licenciatura en Ciencias económicas y Sociales y su grado de M.C. en Ciencias de la Computación con honores ('91) en la Universidad de Namur, Bélgica. Luego obtuvo el doctorado Ph.D. ('94) en Ciencias de la Computación con grandes honores en la Universidad de Grenoble (INPG), Francia. Sus investigaciones en los laboratorios IMAG se enfocaron en Mapeo y graficas de calendarización de Tareas en Computadoras Paralelas de Memoria Distribuida. Luego realizó investigación post-doctoral sobre coordinación de lenguajes y computación evolutiva multi-agentes en CWI en Amsterdam, Holanda. El Dr. Bouvry adquirió experiencia industrial como administrador de un equipo consultor para FICS (SONE), que es un líder mundial en servicios financieros electrónicos. Enseguida, trabajo como CEO y CTO - Jefe Oficial de Tecnología- de SDC: una inversión conjunta con base en Saigón entre SPT (uno de los grandes operadores de telecomunicaciones en Vietnam), Spacebel SA (líder en Bélgica en industria Aeroespacial, GIS y Cuidados de Salud), e IOIT, un centro público de investigación y entrenamiento. Después de eso, el Dr. Bouvry se mudó a Montreal como VP de producción de Lat45 y Director de Desarrollo de MetaSolv Software (ORCL) un líder mundial en Sistemas de Soporte de Operaciones para la industria de las telecomunicaciones (esto es, AT&T, Worldcom, Bell Canada, etc).Actualmente el Dr. Bouvry está como professor en la unidad de investigación de (CSC) de la Facultad de Sciences, Technology de Luxembourg University. Pascal Bouvry pertenece a la planta de maestros del Interdisciplinary Center of Security, Reliability y participa en varios comités científicos y grupos de trabajo técnicos (IEEE CIS Cloud Computing VP, IEEE TCSC GreenITsteeringcommitte, ERCIM WH,ANR, COST TIST, etc.)
 

TU Dortmund University
Germany
Título:
Comparado con el pasado, la administración de recursos de sistemas de cómputo grandes se ha vuelto mucho más complicada dado que ahora se tienen varias constricciones como virtualización, tolerancia a fallas y eficiencia en energía. Por lo tanto, no es sorpresa que casi todas las conferencias sobre super-cómputo, o procesamiento en paralelo, tratan el tema de administración de recursos con una o más sesiones. Aunque ya se han propuesto una amplia variedad de diferentes enfoques algorítmicos para mejorar la eficiencia de estos sistemas de cómputo, en realidad solamente unos cuantos han sido utilizados en máquinas reales, como el sistema EASY. En esta presentación discutiremos las razones de esta disparidad, Luego sugeriremos algunas reglas que trabajos futuros deberán considerar para remarcar su aplicabilidad y beneficios de esto nuevos algoritmos de calendarización. Estas reglas son relevantes en la investigación que enfatiza la relevancia práctica de los algoritmos presentados. Mostraremos como ejemplo la aplicación de estas reglas al desarrollar un nuevo método de administración de recursos de cómputo en el modelo de cómputo en la nube: Infraestructura-como-un-Servicio (IasS).

Uwe Schwiegelshohn recibio su diploma y grados de Ph.D. en Electrical Engineering dela TU de Munich in 1984 and 1988, respectivamente. Estuvo en el departamento de Ciencias de la Computación del IBM T.J. Watson Research Center de 1988 a 1994 antes de obtener el profesorado completo en TU Dortmund University. En el 2008 fue designado como vice-rector de finanzas de la misma. En el 2008 fue nombrado director administrativo de la corporación patrocinada por el gobierno D-Grid, como coordinador de los trabajos de investigación en Alemania. Del 2002 al 2012 fue organizador del Taller para Estrategias de Calendarización para Procesamiento en Paralelo. Adicionalmente ha sido director y miembro de comités de programa para otras conferencias y talleres. Sus investigaciones e intereses actuales son problemas de calendarización, administración de recursos de grandes sistemas de cómputo y ambientes de virtuales de investigación.
 

Investigador Científico del, Qualcomm Institute
University of California, San Diego
Título:
El advenimiento del bizelado ultra-angosto en los despliegues de pantallas de mosaico hace unos cuantos años, marcó la pauta para alterar dramáticamente como mostrar información de gran escala. Estas paredes de video se han hecho ubicuas en cuartos de prensa y despliegue de comerciales, aunque son utilizados como muy brillantes HDTV del tamaño de la pared; no su utilizan para despliegue de conjuntos enormes de datos. Sin embargo, las paredes de video de mosaico de pantallas son utilizadas para visualización de grandes conjuntos de datos que fluyen sobre redes, se han convertido en parte integral de las redes y comunicaciones científicas, presentaciones artísticas y exhibiciones universitarias. Las paredes de video en colaboraciones internacionales han estado creciendo en uso desde hace ya varios años. En UCSD, paredes de video tanto 2D como estéreo son ampliamente utilizadas para despliegue de grandes datos con resolución de hasta 64 megapixeles, así como la nueva generación de despliegues LCD de 4K UHD (Ultra High Definition). Se han invertido esfuerzos específicos para la optimización de servidores de archivos de alta-velocidad tanto locales como a distancia en colaboraciones utilizando redes y software múltiples a 10Gb/s y 40Gb/s sincronizados en sintonía para compartición de imágenes (SAGE), y visualizado vía streaming a extremadamente alta/resolución (MediaCommons), y experiencias virtuales inmersivas (CalVR), así como el manejo preciso con arreglos de bocinas enfocadas SoundBender y cancelación avanzada de eco. Se presentarán Resultados recientes de adaptación de flash-memories a tecnologías de grandes datos, lídereados por el San Diego Supercomputer Center (SDSC), con PC's "FIONA" basadas en SSD manejando despliegues de grandes datos en 2D/3D localmente con interfaces de redes de hasta 40Gb/s, unidas con redes de área amplia -WAN, de 100Gb/s, mas sus aplicaciones propias. Las aplicaciones en proteómica y arqueología, son dos ejemplos de aplicaciones en UCSD con enorme potencial internacional. También se describirán a detalle los últimos grandes despliegues en UCSD, WAVE y WAVElet, y la utilización de paneles de UHDTV de (4K).

Thomas A. DeFanti, PhD, es un investigador-científico del Qualcomm Institute, que es una división del California Institute for Telecommunications and Information Technology (Calit2), de la University of California, San Diego (UCSD), y profesor distinguido emérito del Departamento de Ciencias de la Computación de la Universidad de Illinois en Chicago (UIC). Es investigador-principal del programa IRNC y proyecto TransLight/StarLightde la NationalScienceFoundation (NSF). Recipiente del premio Outstanding Contribution Award de la ACM, y designado ACM Fellow en 1994. Comparte el reconocimiento con el fellow-profesor emérito de la Universidad de Illinois-Champagne (UIC) Daniel J. Sandin por la concepción del escenario de realidad virtual CAVE.
 

Universidad de la República
Multidisciplinary Center for High Performance Computing
Uruguay
Título:
La Metaheurística, es un conjunto de estrategias de alto-nivel mediante software que define los algoritmos de marcos de trabajo y técnicas con capacidad de encontrar soluciones aproximadas a problemas de: búsquedas, optimización y aprendizaje de máquina. Son técnicas de alto valor, que le permite a los investigadores y practicantes cumplir con retrasos de soluciones realistas en muchos campos de aplicación, que van desde informática (optimización combinatoria, bio-informática, ingeniería de software, etc.) a aplicaciones en la industria y comercio (logística, telecomunicaciones, ingeniería, economía, etc.) Se han concebido modelos paralelos de Metaheurística para mejorar la velocidad de las búsquedas. Mediante la división de las cargas de trabajo en las búsquedas en varios elementos componentes, la Metaheurística paralela permite obtener resultados de alta-calidad en tiempos de ejecución razonables, aún para problemas de optimización difíciles y complejos. Esta presentación introduce los principales conceptos de la Metaheurística como solucionadores de problemas, y provee de un vista general del campo de implementaciones Metahurísticas en paralelo, incluyendo tópicos de implementación en nuevos dispositivos de cómputo e infraestructuras de supercómputo, así como también líneas de aplicación en problemas de mundo-real.

Sergio Nesmachnow es Profesor de tiempo completo de la Universidad de la República, Uruguay, con varias asignaciones en la enseñanza e investigación. Esinvestigador en el National Research and Innovation Agency (ANII) and National Program for the Development of Basic Sciences (PEDECIBA), Uruguay. Sus principals áreas de inter&eeacute;s e investigación son: cómputo científico, computación de alto-rendimiento (HPC), y Metaheurística paralela aplicada a la resolución de problemas complejos en el mundo-real. Nesmachnow tiene Ph.D (2010) y M.Sc. (2004) en Ciencias de la Computación y el grado de ingeniería de la Universidad de la República Uruguay. Ha publicado más de 90 artículos en journals internacionales, y proceedings de conferfencias. Actualmente funge como Director del Multidisciplinary Center for High Performance Computing (Universidad de la República, Uruguay) y como Editor-in-Chiefpara International Journal of Metaheuristics, a la vez que es Editor-invitado del Cluster Computing and TheComputerJournal. También es presentador y miembro de varios comités de programas técnicos de conferencias internacionales y revisor de varios journals y conferencias. Su e-mail es: sergion@fing.edu.uy, Webpage: www.fing.edu.uy/~sergion.
 

University of Notre Dame
Center for Research Computing
USA
Título:
HUBzero de la Universidad de Purdue está creciendo a saltos agigantados estos días. Empoderando desde simples websites colaborativos a portales de cómputo intensivo como nanoHUB. ¿Esto significa que es adecuado para cualquier portal científico? ¿Debería HUBzero utilizarse cuando existen otras herramientas mejor indicadas? ¿Cuándo debe utilizarse HUBzero y cuando estas otras herramientas? Es esta presentación hablare sobre experiencias en la construcción en el Center for Research Computing de la Universidad de Notre Dame de gateways científicos, para ambos, cuando se usan soluciones con HUBzero y cuando no.

Jarek Nabrzyski, es director del Center for Research Computing de la University of Notre Dame. Antes de venir a Notre Dame Nabrzyski, dirigió el Center for Computation and Technology, de Louisiana State University's y antes de eso, era el administrador del departamento de aplicaciones científicas en el Poznan Supercomputing and Networking Center (PSNC),Poznan, Polonia donde se interesó en la construcción de gateways y herramientas de middleware para cómputo distribuido. Nabrzyski ha construido un equipo humano que desarrolló y apoyó el marco de trabajo GridSphereportlet, y el VineToolkit framework después. Ambos fueron utilizado en colaboraciones sobre gridcomputing a nivel mundial. Mientras estaba en Europa, Nabrzyski estuvo involucrado en más de veinte proyectos patrocinados por la EC incluyendo GridLab, CrossGrid, CoreGrid, GridCoord, QosCosGrid, Inteligrid y ACGT. En sus últimos cinco años en Notre Dame, Nabrzyski, se ha enfocado en la contrucción del Center for Research Computing. El Centro, con más de 40 personas, una empresa de investigación ha estado involucrado en muchos proyectos de investigación patrocinados a nivel nacional e internacional. Nabrzyski recibió su M.Sc. and Ph.D. en Computer Science and Engineering de parte de la Poznan University of Technology in Polonia. Sus áreas de inter&eeacute;s cubren la adminsitración de recursos distribuidos y calendarización, computación en la nube, portales científicos y sistemas de soporte de decisiones para la salud global y aplicaciones ambientales.
 

Department of Computer Science and Technology
Tsinghua University
Title:
El Dr. Zhihui DU es professor asociado en el Departmento of Computer Science and Technology de la Universidad de Tsinghua, China. Su principal interés es el campo del Cómputo de Alto Rendimiento (High Performance Computing -HPC), y ha participado en la construcción de varios sistemas de clusters, incluyendo una supercomputadora de las Top500. Ha publicado más de 100 artículos académicos y ha sido autor/co-autor de 5 libros sobre programación en paralelo y en grids. Ha formado parte en numerosos comités de programas y es sub-director del programa IPDPS, editor-asociado del Journal of Parallel and Distributed Systems, y del International Journal of Parallel, Emergent and Distributed Systems.

La Computación en la Nube, una plataforma de cómputo clave que puede compartir recursos incluyendo: infraestructuras, plataformas, aplicaciones de software, incluso todo, conocido como "X as a Service", está perfilando el cibermundo. Pero la computación en la Nube actual está limitada para enfrentar los problemas que pueden ser modelados únicamente en el mundo cibernético. Hay muchos más problemas en el mundo físico y necesitamos un puente que pueda conectar transparentemente el mundo físico con el mundo cibernético.
Basado en el concepto de "Robot como Servicio en la Nube", proveemos un diseño de un robot en la Nube. En esta platica, proveeré de nuestro diseño sobre una arquitectura robot nube y un escenario de aplicaciones para explicar cómo proveer un servicio de alta calidad a usuarios y obtener mayores beneficios para el centro 'robot nube' mediante la optimización de los servicios robot.