TensorFlow es una biblioteca de código abierto para aprendizaje automático a través de un rango de tareas, y desarrollado por Google para satisfacer sus necesidades de sistemas capaces de construir y entrenar redes neuronales para detectar y descifrar patrones y correlaciones, análogos al aprendizaje y razonamiento usados por los humanos.
Licencia GPL
module load rama0.3 GCC/11.3.0 OpenMPI/4.1.4
module load TensorFlow/2.11.0
Ejemplo de un clasificador de diabetes basado en el conjunto de datos Pima Indians Diabetes Dataset
#!/bin/bash
###################################################################
# DESCRIPCION ####################################################
###################################################################
# #
# Este Script ejecuta un fichero de pyhton cuya mision es tratar
# de predecir que individuos (ficticios) desarrollaran diabetes en
# un futuro en base a ciertos parametros de entrada. #
# Para realizarlo implementa una red neuronal mediantes Keras y TensorFlow ejecutados en GPUS # #
# #
# Fuente original: #
# https://medium.com/edward-leoni/using-machine-learning-to-predict-if-someone-has-diabetes-21dc52118d8f #
# #
#####################################################################
# CONFIGURACION DE LA SOLICITUD AL CLUSTER #########################
#####################################################################
#SBATCH -p gpu # Particion elegida para el trabajo. En este caso debe ser GPU
#SBATCH --gres=gpu:1 # Tarjetas GPU (A100) a utilizar. Normalmente sera 1 unica tarjeta
#SBATCH -N 1 # Numero de nodods solicitados
#SBATCH -n 4 # Numero de cores(CPUs)
#SBATCH --mem-per-cpu=4Gb # Memoria por cada core solicitado
#SBATCH -t 0-01:00:00 # Duracion solicitada para el trabajo (D-HH:MM:SS)
#SBATCH --job-name=tensorflow # Nombre del trabajo
#SBATCH -o tensorflow-%j.out # fichero de salida estandart
# DESPLIEGUE DEL SOFTWARE A UTILIZAR #################################
#######################################################################
# Limpiamos los posibles modulos que tengamos cargados previamente para evitar problemas
module purge
# Desplegar software en el cluster
module load rama0.3
module load GCC/11.3.0
module load OpenMPI/4.1.4
module load TensorFlow/2.11.0-CUDA-11.7.0
# COMANDO A EJECUTAR #####################################################
##########################################################################
# Informacion sobre el trabajo en Drago
echo ""
echo "#################################################################"
echo "DATOS DE RECURSOS DEL TRABAJO EN DRAGO"
echo "Nombre del Trabajo: $SLURM_JOB_NAME"
echo "Numero de Trabajo: $SLURM_JOB_ID"
echo "Cola de Trabajo: $SLURM_JOB_PARTITION"
echo "Numero de nodos: $SLURM_NNODES"
echo "Numero de Cores (Tareas): $SLURM_NTASKS "
echo "Memoria por Core: $SLURM_MEM_PER_CPU"
echo "Directorio: $SLURM_SUBMIT_DIR"
echo "#################################################################"
echo ""
# Fecha/Hora de inicio del trabajo
echo 'Trabajo iniciado en fecha:'
date
python RedNeuronal.py
# Fecha/Hora de fin del trabajo
echo 'Trabajo finalizado en fecha:'
date