La “Semana de la Computación de Alto Desempeño, Datos y Arquitecturas” es un evento abierto a estudiantes de grado, de posgrado y graduados/as que se estén desempeñando actualmente en la industria y que buscan profundizar o introducirse en las temáticas dentro de la Computación de Alto Desempeño,
La escuela estará organizada en recorridos (tracks) orientados a diferentes perfiles de formación e interés. Cada uno tendrá un clase por la mañana de tres horas, y otra por la tarde totalizando 30 horas de clases. Adicionalmente, se propondrán actividades comunes a todos los tracks como charlas, seminarios, talleres que puedan servir para divulgar la temática a los distintos perfiles de estudiantes.
Esta actividad busca recuperar y profundizar la formación de recursos humanos para el desarrollo de aplicaciones científicas y su utilización de manera eficiente en ambientes de computación paralela. Adicionalmente, se plantea avanzar en un aspecto que ha permanecido huérfano estos años y que corresponde con la formación de recursos humanos en la administración y operaciones de equipamiento de cómputo paralelo. El recorrido “Herramientas y técnicas de administración de plataformas de cómputo” estará orientado a dar capacitación en temas específicos dentro del área de operaciones de equipos de cómputo de alto desempeño. Es especialmente interesante que los tutores son especialistas argentinos formados en nuestro país (asistentes a las ediciones anteriores de eventos similares) y que ahora se destacan en centros de referencia a nivel mundial. Se busca, específicamente, que los administradores de los equipos asociados al SNCAD tengan la posibilidad de actualizar la formación de sus recursos humanos con temas de actualidad y que adquieran y se formalicen buenas prácticas de administración de clusters.
Uno de los objetivos más críticos que esta escuela busca cumplir es la de lograr que los distintos perfiles de estudiantes interactúen entre sí ya que en muchas ocasiones tanto usuarios como administradores se ven mutuamente como un impedimento a la hora de realizar sus tareas cotidianas, resulta fundamental romper con esa situación.
La distribución horaria de cada track/recorrido está en la sección correspondiente a cada track. El rango de 18:00hs a 20:00hs es común a todos los recorridos/tracks:
Expositor: Mario Kovač. University of Zagreb Faculty of electrical engineering and computing, Croatia.
Lugar: Aula 1101, Edificio 0+infinito
Digital sovereignty has become a key requirement for the Europe. The need for EU to deploy Europe world-class exascale supercomputers is urging. The European Processor Initiative (EPI) develops a roadmap for future European high-performance low power processors aligned with the EuroHPC JU roadmap.
EPI focuses on processor technologies based on ARM HPC processor architecture, and architecture and HPC accelerator technologies based on RISC-V, the open-source ISA. RISC-V is also candidate to become the Europe’s own technology for covering long term objectives. This phase also seeks to expand the scope of the project into adjacent European and global vertical markets that can leverage HPC to enable new and improved systems and solutions.
EPI has the following objectives:
* Finalize the development and the bring-up of the first generation of low-power processor units developed in first phase of the project,
* Develop the second generation of the General Purpose Processor (GPP) applying technological enhancements targeting the European Exascale machines with respect to the GPP (named Rhea),
* Develop the second generation of low-power accelerator test chips, usable by the HPC community for tests and
* Develop sound and realistic industrialization & commercialization paths and enable long-term economical sustainability with an industrialization path in the edge computing area, demonstrated in a few well-chosen proofs of concepts
[1] https://www.european-processor-initiative.eu/
Expositoras:
* Alejandra Foggia (Instituto Max Planck)
* María Graciela Molina (FACET-UNT/CONICET/INGV)
* Yanina García Skabar (SMN)
* Natalia Clementi (Coiled/Dask clusters)
* Paula Verghelet (DC-FCEyN-UBA)
* Laura Tardivo (DC-UNRC)
Lugar: Aula 1101, Edificio 0+infinito
Estoy realizando mi doctorado en Ciencias de la Computación en el Instituto Max Planck de “molecular cell biology and genetics” en Alemania. En mi trabajo investigo y desarrollo métodos para la discretización numérica de PDEs en campos vectoriales y tensoriales en superficies curvas, con especial atención en sistemas de materia activa biológica. Mi interés es estudiar la morfogénesis de tejidos y organismos utilizando simulaciones numéricas.
Resumen: Morfogénesis es el conjunto de procesos biológicos que llevan a organismos a alcanzar su forma final. Es de gran interés entender cómo los procesos en la superficie de células, tejidos y organismos determinan dicha forma. Pero también, ¿qué rol cumple la geometría en estos procesos?, ¿qué influencia tiene la curvatura? Utilizando métodos de partículas (particle/collocation methods), simulamos sistemas de materia activa en superficies curvas para estudiar estos procesos. En esta charla voy a introducir los métodos de partículas y la librería OpenFPM: escrita en C++, es open source, escalable, y de fácil acceso para distintos niveles de conocimientos en programación y análisis numérico.
La Dra. María Graciela Molina es docente e investigadora de la FACET-UNT y el CONICET. Actualmente dirige el Laboratorio de Computación Científica y el Tucumán Space Weather Center, y actualemtne es directora de la carrera de Ingeniería en Informática todo en la FACET. Además es docente de postgrado en la FACET y en la UNQ. Desde 2015 forma parte del WTPC (https://wtpc.github.io/), grupo sobre programación científica que en 2022 sacó un libro sobre programación científica en español (Editorial UNQ). Título/
Resumen: En esta charla contaré algunas de las líneas de trabajo del grupo en el área de space weather (SWx) o meteorología del espacio. La meteorología del espacio trata de estudiar, comprender, monitorear y pronosticar las condiciones de los diferentes sub sistemas del altamente acoplado sistema Sol-Tierra. Es de especial interés aquellos eventos de SWx que tienen consecuencias en nuestra alta atmósfera impactando en diferentes tecnologías (por ejemplo aquellas basadas en posicionamiento preciso usando GPS) y consecuentemente en el normal desarrollo de las actividades socio-económicas. Es por esto que en SWx requiere de dos enfoques: uno científico y otro operativo. La meteorología del espacio se basa fundamentalmente en el análisis de múltiples parámetros de escalas temporales y espaciales muy diversas provenientes de múltiples instrumentos instalados en tierra (como radares) o a bordo de satélites y sondas espaciales que observan parcialmente cada uno de los sub dominios involucrados. Constantemente, y en algunos casos en períodos mayores a un ciclo solar, se generan y almacenan los datos de estos instrumentos. En este punto la computación de alto desempeño, la programación científica eficiente, el uso de técnicas para manejo de grandes datos y el desarrollo de modelos predictivos basados en estos datos son esenciales para estudiar la meteorlogía del espacio. El grupo trabaja en cada una de las etapas desde la adquisición de datos (en algunos casos directamente desde los instrumentos) hasta en modelos de machine learning para pronóstico.
Me formé en la Facultad de Ciencias Exactas y Naturales de la UBA, soy Dra. en Ciencias de la Atmósfera, e investigadora adjunta de CONICET. Durante toda mi carrera me dediqué al modelado numérico de la atmósfera, especialmente enfocado en el pronóstico a corto plazo de eventos convectivos. Trabajo actualmente en el Servicio Meteorológico Nacional como Directora de Productos de Modelación Ambiental y de Sensores Remotos, en el marco de la Dirección Nacional de Ciencia e Innovación en Productos y Servicios. Título/
Resumen: Históricamente las computadoras con mayor potencia de cálculo han sido utilizadas en el pronóstico numérico del tiempo. Esto se debe a la necesidad de procesar grandes volúmenes de información en un período de tiempo lo suficientemente corto como para que un pronóstico tenga validez. Con los años la complejidad de las observaciones que se incorporan fue creciendo y a la vez la precisión y los procesos físicos que se representan en los modelos numéricos se fueron complejizando, aumentando la necesidad de una mayor capacidad de cómputo para procesarlos. En los últimos años, el Servicio Meteorológico Nacional, a través de diferentes iniciativas, logró aumentar significativamente la capacidad de cómputo. Este hecho permitió la implementación operativa de pronósticos numéricos en alta resolución por ensambles, lo que contribuye a mejorar la calidad de los pronósticos y además permite dar una medida de la incertidumbre de los mismos.
Me forme inicialmente como licenciada en Física, egresada de FAMAF-UNC, y luego hice mi doctorado en ingeniería mecánica y aersopacial, donde trabajé con modelos computacionales aplicados a biosesores nanpopalsmónicos. Durante mi doctorado trabajé con python y varias librerías open-source, y aprendí buenas prácticas de desarrollo de software. Este conocimiento me permitió encontrar trabajo en la industria y hace dos años que trabajo como ingeniera de software para una empresa llamada Coiled. Estoy en el equipo de open source, donde contribuyo a la librería Dask (una libreria de computación paralela en python) y también creo contenido y tutorials para educar en el uso de Dask y clusters en Coiled.
Resumen: (coming soon)
Trabajo como JTP/Docente Investigadora Asistente Full-Time en el Departamento de Ciencias de la Computación de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires. Licenciada en Ciencias de la Computación de la Universidad de Buenos Aires especializada en Sistemas Distribuidos. Premio EST 2015 al Trabajo Final de Carrera. Estudiante Distinguida de la Universidad de Buenos Aires en 2016. Soy autora de varias contribuciones en el campo de la Computación de Alto Desempeño (HPC) enfocadas en la distribución de información sobre recursos. Miembro SADIO, WHPC y LA-WHPC Chapter (Latin America High Performance Computing Chapter).
Resumen: Internet of Things (IoT) refiere a un paradigma en el cual todos los objetos pueden enviar información y colaborar con sus recursos de cómputo a través de Internet. La combinación de Fog y Cloud Computing define un sistema distribuido compuesto por recursos heterogéneos interconectados por diferentes tecnologías de comunicación. Fog/Edge Computing intenta disminuir el consumo de bandwidth manteniendo el cómputo cerca del origen de los datos y evitando el colapso de la infraestructura de red producto de mover todos los datos desde el edge hasta los datacenters Clouds. Pese a su capacidad teórica, el uso de estos recursos presenta un desafío para las aplicaciones distribuidas y las políticas de scheduling. En tal contexto la información sobre disponibilidad de los recursos resulta indispensable. En esta charla contaré brevemente los pasos iniciales para desarrollar una herramienta que permite evaluar el impacto de la calidad de la información sobre recursos para guiar políticas de scheduling y la creación de nuevas políticas. Esta herramienta combina simulación y validación y simplifica el deployment de experimentos en ambos contextos. La evaluación de esta prueba de concepto inicial consistió en el despliegue de experimentos con diferente cantidad de dispositivos en un mismo site y en tres sites distintos en FIT IoT-LAB (Francia). Utilizamos un método de segmentación en forma distribuida aplicado a una secuencia de imágenes en ambas plataformas y un modelo teórico para predecir el tiempo total de cómputo.
La Dra Maria Laura Tardivo se desempeña como docente del Departamento de Computación de la Universidad Nacional de Río Cuarto, en las cátedras de Sistemas Operativos y Organización del Procesador. Ha recibido su título de Licenciada en Ciencias de la Computación y de Profesora en Ciencias de la Computación por la UNRC. Posteriormente, se graduó de Doctora en Ciencias de la Computación en la Universidad Nacional de San Luis, con área de investigación optimización y cómputo paralelo/distribuido, aplicado a modelos predictivos. Ha participado en diferentes proyectos de investigación ligados a procesamiento paralelo y optimización. Actualmente se encuentra realizando un posgrado en la empresa BCDB Inc. con sede en San Francisco, California, con objetivo contribuir con el desarrollo y optimización del rendimiento de un sistema para desplegar contratos inteligentes en redes blockchain que siguen el modelo UTXOs.
Resumen: Bitcoin Computer es un sistema que permite el despliegue de contratos inteligentes para el desarrollo de aplicaciones descentralizadas, sobre blockchains que siguen el modelo “Unspent Transaction Output” (UTXO), como lo son las redes de bloques Bitcoin, Litecoin y Dogecoin. En esta charla describiré las principales características y componentes del sistema, y detallaré nuestros esfuerzos para acelerar el proceso de sincronización de un nodo Bitcoin Computer mediante el uso del paralelismo.
Expositor: Mario Ruiz, AMD inc.
Lugar: Aula 1101, Edificio 0+infinito
En esta charla, Mario presentara la arquitectura de las FPGA (Field Programable Gate Array) de AMD. En la charla se presentarán los diferentes componentes de una FPGA moderna y se discutirán por que las FPGA son relevantes como aceleradores de computación intensiva en los datacenters y HPC. Los lenguajes y herramientas para programar las FPGAs serán discutidos brevemente.
Luego de introducir las FPGAs, Mario discutirá la evolución de las FPGA primero a SoC (System on Chip) y ACAP (Adaptive Compute Acceleration Platform) en la última década. Para concluir la charla, Mario motivará el uso de ACAP como dispositivo de computación heterogénea.
Expositor: Hernán Sanchez
Lugar: Aula 1101, Edificio 0+infinito
Arquitecto de Soluciones dependiente del área de Ingeniería de AMD para LATAM. Hernan cuenta con mas de 35 años de experiencia en el área de informática cubriendo desde el diseño de computadoras, motherboards, en el ambito académico y ha conducido el programa de TV EDUHARD durante 16 años haciendo divulgación de tecnología informática, actualmente ayuda desde el área de ingeniería a impulsar las tecnologías AMD en el centro de datos.
Hoy Hernán nos brindará una vista 360 de la AMD, centrándoce en los procesadores AMD EPYC para el data Center y aceleradores AMD Instinct.