Centro de Cálculo Científico de la UPO (C3UPO)
Descripción
El C3UPO dispone de un cluster de supercomputación, que ofrece servicios a diferentes grupos de investigación para facilitar cálculos científicos. El clúster ofrece herramientas específicas a los grupos de investigación. De esta forma se facilita el trabajo al investigador, ya que puede trabajar en un solo entorno, sin la necesidad de migrar datos de un lugar a otro disponiendo de gran capacidad y rendimiento para trabajo en remoto.
http://www.bioinfocabd.upo.es/
Necesidad o problema que resuelve
Cluster de supercomputación que ofrece servicios a diferentes grupos de investigación para facilitar cálculos científicos.
Aspectos Innovadores/Ventajas competitivas
El clúster ofrece herramientas específicas a los grupos de investigación. De esta forma se facilita el trabajo al investigador, ya que puede trabajar en un solo entorno, sin la necesidad de migrar datos de un lugar a otro.
Equipamiento científico disponible
Características de hardware
- El clúster se compone de 45 nodos de cálculo.
- Esos 45 nodos cuentan con 1704 cores de cálculo.
- 13 nodos (nodo01 - nodo13) x 24 cores/nodo = 312 cores.
- 18 nodos (nodo14 - nodo31) x 40 cores/nodo = 720 cores.
- 14 nodos (nodo32 - nodo45) x 48 cores/nodo = 672 cores.
- La memoria RAM de los nodos es la siguiente:
- Los nodos nodo01-nodo12 tienen 62 GB de RAM.
- El nodo nodo13 tiene 125 GB de RAM.
- Los nodos nodo14-nodo31 tienen 92 GB de RAM.
- Los nodos nodo32-nodo43 tienen 370 GB de RAM
- El nodo nodo44 tiene 750 GB de RAM
- El nodo nodo45 tiene 252 GB de RAM
- Todos los nodos tienen una carpeta scratch con la siguiente capacidad:
- Los nodos nodo01-nodo12 tienen una capacidad de almacenamiento de 207 GB.
- El nodo nodo13 tiene una capacidad de almacenamiento de 239 GB.
- Los nodos nodo14-nodo31 tienen una capacidad de almacenamiento de 7,3 TB.
- Capacidad de 69 TB en un sistema de ficheros compartidos BeeGFS.
- SLURM (Simple Linux Utility for Resource Management) como sistema de colas.
- Sistema Operativo CentOS Linux 7.2.
- Última ampliación de recursos destinada a entornos Big Data (512 cores y 6TB de RAM):
- Se incorporan 2 nuevos nodos de login
- Nodo master (hadoop masternode) que cuenta con 16 cores y 512 GB de RAM
- 4 Nodes compute rendimiento: cr01-cr04. Cada nodo cuenta con 64 cores y 1024 GB de RAM
- 4 Nodes compute capacidad: cc01-cc04. Cada nodo cuenta con 64 cores y 512 GB de RAM
- Se crean nuevos sistemas de ficheros BeeGFS para uso exclusivo de cálculos Big Data, al que sólo este nuevo equipamiento tiene acceso:
- Storage1 – 12TB nvme – RAID 0 - /mnt/beegfs-nvme
- Storage2 – 7TB SSD – RAID6 - /mnt/beegfs-ssd
- Storage3- 424TB SATA – RAID - /mnt/beegfs-sas
Sistema de colas
El clúster cuenta con el siguiente sistema de colas:
- Cola diaria. Los trabajos que se ejecuten en esta cola pueden durar como máximo 1 día. Limitada a 120 cores/usuario.
>srun -n1 -N1 -p day hostname - Cola semanal. Los trabajos que se ejecuten en esta cola pueden durar como máximo 7 días. Limitada a 120 cores/usuario.
>srun -n1 -N1 -p week hostname - Cola bimensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 14 días. Limitada a 80 cores/usuario.
>srun -n1 -N1 -p week2 hostname - Cola mensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 30 días. Limitada a 60 cores/usuario.
>srun -n1 -N1 -p month hostname - Cola bd. Para trabajos Big Data. Se necesitan permisos para hacer uso de la misma.
>srun -n1 -N1 -p bd hostname |
Características de los nodos
Los nodos permiten satisfacer necesidades específicas en función de sus características:
- SET1: Hace referencia al conjunto de nodos nodo01-nodo07.
- WEB: Hace referencia al nodo nodo08, encargado de realizar las peticiones solicitadas por el servidor web.
- GAUSSIAN: Hace referencia al conjunto de nodos nodo09-nodo12, que cuentan con mayor capacidad de almacenamiento.
- GPU: Hace referencia al nodo nodo13, que cuenta con GPU.
- SET2: Hace referencia al conjunto de nodos nodo14-nodo31.
>srun --constraint="SET1" hostname
|
Software instalado
- Bioinformática
- bedtools - v2.18
- Blast - v2.13
- Blast+ v2.7.1
- Bowtie2/2.3.2
- TransDecoder - v3.0
- Trinity - v2.4
- Trinotate - v3.0
Lenguajes de programación soportados
- Java
- Perl
- PHP
- Python
Sistema de paralelización
- OpenMPI
Nota: Si necesita una solución personalizada, no dude en contactar con nosotros a través de la dirección c3upo_admin@upo.es
Tipos de empresas interesadas
La infraestructura del clúster de supercomputación puede ser ampliamente utilizado por numerosos grupos de investigación pertenecientes a diferentes Áreas Científicas y Tecnológicas, entre las que se encuentran:
- Física, Química y Sistemas Naturales
- Biología Celular y Bioquímica
- Genética
- Microbiología
- Bioinformática y Biología Computacional
- Ingeniería de Sistemas
- Lenguajes y Sistemas Informáticos
El clúster de supercomputación constituye un servicio realmente necesario en el desarrollo de proyectos de investigación de gran embergadura.
Nivel de desarrollo
Disponible para el cliente
Área tecnológica
Biotecnologia, Tecnologías Químicas y de Materiales, Biomedicina y Salud Pública
Equipo de investigación
Grupo de Bioinformática UPO-CABD. Area de Genética. Departamento de Biología Molecular e Ingeniería Química > Más ofertas de este grupo
UBICACIÓN:
Centro Andaluz de Biología del Desarrollo (CABD), CSIC-UPO
Universidad Pablo de Olavide
Ctra/ Utrera, Km. 1 41013 Sevilla
+34 954 348 652
Investigador responsable: Antonio Pérez Pulido. Grupo de investigación ‘Genética del control de la división celular (BIO 147)’. Dpto. de Biología Molecular e Ingeniería Bioquímica.
c3upo_admin@upo.es
http://www.bioinfocabd.upo.es/
Ficheros adjuntos
Contactar con la OTRI a través de nuestro formulario de contacto