loadleveler 3

Serial Job과 LoadLeveler

Grid Engine에서는 Serial Job을 위해 Array job을 지원하지만, 아쉽게도 IBM의 LoadLeveler에서는 지원하고 있지 않습니다. 따라서, 1,000개의 Serial Job을 수행하기 위해서는 1,000개의 Job Script를 작성하여 1,000번을 Queue에 제출해줘야 합니다. 따라서, 간단하게 python 스크립트를 만들어서 수행할 수가 있죠,,, 이전 포스팅의 Array job처럼 말이죠,,, | View | Upload your own 계속 추가중인 자료입니다. ^^;;

blogging 2008.07.07

대용량 컴퓨팅 환경과 Genome Browser

바로 이전 글에서 대용량 컴퓨팅 즉 클러스터 컴퓨팅환경을 Yaohoo와 Google에서 연구자들에게 제공한다고 했었다. 대용량 컴퓨팅환경, 좀 더 세분화한다면 여러대의 컴퓨터를 묶어서 사용하는 클러스터 환경과 Bioinformatics 연구를 한번 짚고 넘어가 보려고 한다. 클러스터 컴퓨팅환경을 사용하는 가장 일반적인 예는 바로 처리하고자 하는 일을 나누어서 하는 것이 가장 손쉬운 클러스터 컴퓨터를 이용하는 방법이다. 24개의 chromosome에 대응하는 어떠한 데이터가 있다고 가정할 때 한 대의 컴퓨터로 24개의 chromosome 데이터를 처리할때에 24시간의 시간이 걸린다고 한다면 24대의 컴퓨터에 이러한 작업(job)을 분배한다면 1시간에 끝마칠 수 있다. 바로 linear하게 속도를 향상 시킬..

Bioblogs 2008.02.26

리눅스 병렬 프로그래밍 - pbs & loadleveler

이제 mpi 프로그래밍을 사용할 수 있는 환경이 마련되었다. 즉, 리눅스에서 병렬 프로그래밍이 가능해 졌다는 것이다. 그럼 이제 병렬 S/W를 만들고 실제 수행할 때 좀 더 심플하게 수행하도록 pbs나 loadleveler등의 스케줄러를 통해 실제 mpi 프로그램을 실행하도록 한다. loadleveler script for parallel job (parallel.cmd) [code c] #!/bin/bash # @ job_type = parallel # @ class = p_normal # @ input = /dev/null # @ step_name = parallel # @ output = $(step_name).$(cluster).out # @ error = $(step_name).$(cluster..